Нд. Тра 31st, 2020

Європейські новини

ЄС, Україна, Закарпатський край

Искусственный интеллект может стать серьезной проблемой для человечества

9 min read

Опасность применения машин с искусственным интеллектом, выполняющих наши приказы, состоит в том, что желания мы склонны выражать очень небрежно. Строки кода, которые будут «оживлять» эти машины, неизбежно забудут учесть нюансы и не сформулируют на этот счёт внятного предостережения, в результате чего ИИ-системы получат цели и побуждения, не согласованные с нашими истинными предпочтениями.

Классический мысленный эксперимент, иллюстрирующий эту проблему, поставил в 2003 году оксфордский философ Ник Бостром (Nick Bostrom). Описанный им суперинтеллектуальный робот, запрограммированный изготавливать канцелярские скрепки, то есть выполнять, казалось бы, безобидную цель, со временем превращает весь мир в гигантскую фабрику по производству скрепок.

Такой сценарий нередко оценивали как умозрительный, как представляющий опасность, которая может возникнуть только в далёком будущем. Но отклоняющийся ИИ стал проблемой гораздо раньше, чем ожидалось.

Возьмём самый тревожный пример — тот, который оказал негативное влияние на миллиарды людей. Видеохостинг YouTube, стремясь максимизировать время просмотров, использует создаваемые на базе ИИ алгоритмы рекомендации контента. Два года назад учёные-компьютерщики и пользователи начали замечать, что алгоритм YouTube, похоже, стремится выполнять поставленную перед ним цель, рекомендуя всё более экстремальный и конспирологический контент. Одна исследовательница сообщила, что после того, как она просмотрела видеоматериалы о митингах, проведённых в рамках избирательной кампании Дональда Трампа, YouTube предложил ей видео с «демагогическими речами белых расистов, заявлениями о том, что никакого Холокоста не было, и другим вызывающим тревогу контентом». Входя в раж, алгоритм выводит за рамки политики.

«Видео о вегетарианстве, — отметила исследовательница, — привело меня к видео о веганстве. Видео о беге трусцой — к видео о беге на сверхмарафонские дистанции». В результате, как показывают исследования, алгоритм YouTube просто для того, чтобы мы продолжали просмотры, способствует поляризации и радикализации общественных взглядов и распространяет дезинформацию.

«Если бы я планировал применение этой технологии в массовом масштабе, я бы, пожалуй, постарался избежать такого эффекта при её апробации», — говорит Дилан Хэдфилд-Менелл (Dylan Hadfield-Menell), исследователь ИИ из Калифорнийского университета в Беркли (University of California, Berkeley).

У программистов YouTube, вероятно, не было цели радикализировать человечество. Но кодеры не могут думать обо всём на свете.

«Нынешний способ создания ИИ возлагает на разработчиков слишком большую нагрузку, заставляя их предвидеть, какими окажутся последствия целей, которые они вводят в свои системы, — отмечает Хэдфилд-Менелл. — И ошибки, допущенные многими разработчиками, — это то, из чего необходимо извлечь уроки».

Главный аспект проблемы состоит в том, что люди часто не знают, на что нацеливать системы ИИ, потому что не знают, чего в действительности хотят. «Спросите кого-нибудь на улице: „Чего вы хотите от своего беспилотного автомобиля?“ — и вам ответят так: „Предотвращения столкновений“, — говорит Дорса Садих (Dorsa Sadigh), специалист по ИИ Стэнфордского университета (Stanford University), специализирующаяся на взаимодействии человека и робота. — Но ясно же, что этого мало; людям хочется ещё много чего». Супербезопасные беспилотные автомобили ездят слишком медленно и тормозят так часто, что пассажирам становится дурно. Когда программисты пытаются перечислить все цели и предпочтения, которые должен одновременно учитывать робомобиль, список неизбежно оказывается неполным. По словам Садих, когда она, управляя автомобилем, ехала по Сан-Франциско, её часто заставляли тормозить беспилотные машины, останавливавшиеся на дороге. Они, как и требует их программа, тщательно избегают контакта с движущимися объектами, но такими объектами могут быть и пластиковые пакеты, перемещаемые ветром.

Чтобы избежать такого рода ловушек и создать теоретическую базу для решения проблемы устранения отклонений ИИ, исследователи приступили к разработке совершенно нового метода программирования машин-помощников. На формирование этого подхода в наибольшей степени повлияли идеи и исследования Стюарта Рассела, 57-летнего учёного-компьютерщика из Беркли, имеющего награды за научную деятельность. В 80-х и 90-х годах ХХ века Рассел прославился новаторскими исследованиями, посвящёнными рациональности, принятию решений и машинному обучению. Он — главный автор популярного учебника «Искусственный интеллект: современный подход» (Artificial Intelligence: A Modern Approach). За последние пять лет его голос стал особенно влиятельным в том, что касается проблемы устранения отклонений. Этот сдержанный британец в чёрном костюме, умеющий складно и толково говорить, — завсегдатай международных встреч и дискуссионных форумов, где обсуждается ИИ — связанные с ним риски и долгосрочное управление.

По мнению Рассела, сегодняшний ИИ, преследующий ту или иную цель, является, по большому счёту, ограниченным, несмотря на все его успехи в выполнении конкретных задач — таких, как победа над человеком в Jeopardy! и го, распознавание предметов на изображениях и слов в речи и даже сочинение музыкальных и литературных произведений. Рассел утверждает, что требование от машины оптимизировать «функцию вознаграждения» — тщательное описание некоторой комбинации целей — неизбежно ведёт к отклонению ИИ, поскольку в рамках данной функции невозможно учесть и правильно взвесить все цели, подцели, исключения и оговорки или даже всего лишь определить, какие из них правильные. По мере того, как самостоятельные, «автономные» роботы будут становиться всё более умными, задавать им цели будет всё более опасно, ибо роботы, осуществляя свою функцию вознаграждения, будут неумолимы и при этом постараются помешать нам их отключить.

Copyright © All rights reserved. | Newsphere by AF themes.