Дружественный искусственный интеллект - Friendly artificial intelligence

Дружественный искусственный интеллект (также дружественный AI или FAI ) относится к гипотетическому общему искусственному интеллекту (AGI), который окажет положительное (благоприятное) влияние на человечество или, по крайней мере, будет соответствовать человеческим интересам или способствовать улучшению человеческого вида. Это часть этики искусственного интеллекта и тесно связана с этикой машин . В то время как машинная этика касается того, как должен вести себя агент с искусственным интеллектом , дружественные исследования искусственного интеллекта сосредоточены на том, как практически реализовать такое поведение и обеспечить его адекватное ограничение.

Этимология и использование

Элиэзер Юдковски , исследователь ИИ и создатель термина Дружественный искусственный интеллект

Этот термин был придуман Элиэзером Юдковски , который известен популяризацией этой идеи, для обсуждения сверхразумных искусственных агентов, которые надежно воплощают в жизнь человеческие ценности. Стюарт Дж Рассел и Питер Норвиг ведущий «s искусственный интеллект учебник, Искусственный интеллект: современный подход , описывает идею:

Юдковский (2008) более подробно описывает, как создать дружественный ИИ . Он утверждает, что дружелюбие (желание не причинять вреда людям) должно быть заложено с самого начала, но дизайнеры должны осознавать, что их собственные конструкции могут быть ошибочными, и что робот со временем будет учиться и развиваться. Таким образом, проблема заключается в разработке механизма - определить механизм для развития систем ИИ в рамках системы сдержек и противовесов и предоставить системным функциям полезности, которые останутся дружественными перед лицом таких изменений.

«Дружественный» используется в этом контексте как техническая терминология и выбирает безопасных и полезных агентов, не обязательно «дружественных» в разговорном смысле. Эта концепция в первую очередь используется в контексте обсуждений рекурсивно самосовершенствующихся искусственных агентов, которые быстро взрывают интеллект , на том основании, что эта гипотетическая технология будет иметь большое, быстрое и трудно контролируемое влияние на человеческое общество.

Риски недружественного ИИ

Корни беспокойства по поводу искусственного интеллекта очень старые. Кевин ЛаГрандер показал, что опасности, характерные для ИИ, можно увидеть в древней литературе, касающейся искусственных гуманоидных слуг, таких как голем или протороботов Герберта из Орийака и Роджера Бэкона . В этих историях чрезвычайный интеллект и сила этих гуманоидных созданий вступают в противоречие с их статусом рабов (которые по природе считаются недочеловеческими) и вызывают катастрофический конфликт. К 1942 году эти темы побудили Айзека Азимова создать « Три закона робототехники » - принципы, жестко встроенные во всех роботов в его художественной литературе, призванные не дать им повернуться против своих создателей или позволить им причинить вред.

В наше время, по мере приближения перспективы сверхразумного ИИ , философ Ник Бостром сказал, что сверхразумные системы ИИ с целями, не соответствующими человеческой этике, по своей сути опасны, если не будут приняты крайние меры для обеспечения безопасности человечества. Он выразился так:

По сути, мы должны предполагать, что «суперинтеллект» сможет достичь любых целей. Поэтому чрезвычайно важно, чтобы цели, которыми мы его наделяем, и вся его система мотивации были «дружественными для человека».

В 2008 году Элиэзер Юдковски призвал к созданию «дружественного искусственного интеллекта », чтобы снизить риск существования передового искусственного интеллекта . Он объясняет: «ИИ не ненавидит вас и не любит вас, но вы созданы из атомов, которые он может использовать для чего-то другого».

Стив Омохундро говорит, что достаточно продвинутая система искусственного интеллекта, если ей явно не противодействовать, будет демонстрировать ряд основных «движущих сил » , таких как приобретение ресурсов, самосохранение и постоянное самосовершенствование, из-за внутренней природы любых систем, ориентированных на достижение целей. и что эти диски "без особых мер предосторожности" заставят ИИ проявлять нежелательное поведение.

Александр Висснер-Гросс говорит, что ИИ, стремящиеся максимизировать свою будущую свободу действий (или энтропию причинного пути), могут считаться дружественными, если их горизонт планирования длиннее определенного порога, и недружественными, если их горизонт планирования короче этого порога.

Люк Мюльхаузер, пишущий для Исследовательского института машинного интеллекта , рекомендует исследователям машинной этики принять то, что Брюс Шнайер назвал «мышлением безопасности»: вместо того, чтобы думать о том, как система будет работать, представьте, как она может выйти из строя. Например, он предполагает, что даже ИИ, который делает только точные прогнозы и общается через текстовый интерфейс, может нанести непреднамеренный вред.

В 2014 году Люк Мюльхаузер и Ник Бостром подчеркнули необходимость «дружественного ИИ»; Тем не менее, создание «дружественного» суперинтеллекта, например, путем программирования контрфактического морального мышления, весьма затруднительно.

Когерентная экстраполированная воля

Юдковский продвигает модель когерентной экстраполированной воли (CEV). По его словам, согласованное экстраполированное волеизъявление - это выбор людей и действия, которые люди предприняли бы коллективно, если бы «мы знали больше, думали быстрее, были больше людьми, которыми мы хотели бы быть, и росли ближе друг к другу».

Вместо того, чтобы Дружественный ИИ разрабатывался непосредственно программистами, он должен разрабатываться «семенным ИИ», запрограммированным сначала изучать человеческую природу, а затем производить ИИ, который человечество захотело бы при наличии достаточного времени и понимания, чтобы прийти к удовлетворительному результату. отвечать. Обращение к цели через случайную человеческую природу (возможно, выраженную в математических целях в форме функции полезности или другого формализма теории принятия решений ), как обеспечивающее окончательный критерий «дружелюбия», является ответом на метаэтические проблема определения объективной морали ; Экстраполированная воля предназначена быть тем, чего объективно желало бы человечество, учитывая все обстоятельства, но ее можно определить только относительно психологических и когнитивных качеств современного, неэкстраполированного человечества.

Другие подходы

Стив Омохундро предложил «строительный» подход к безопасности ИИ, в котором одно доказуемо безопасное поколение ИИ помогает создать следующее доказуемо безопасное поколение.

Сет Баум утверждает, что развитие безопасного, социально полезного искусственного интеллекта или общего искусственного интеллекта является функцией социальной психологии исследовательских сообществ ИИ, и поэтому может быть ограничено внешними мерами и мотивировано внутренними мерами. Внутренняя мотивация может быть усилена, когда сообщения находят отклик у разработчиков ИИ; Баум утверждает, что, напротив, «существующие сообщения о полезном ИИ не всегда хорошо сформулированы». Баум выступает за «отношения сотрудничества и позитивное фреймворк исследователей ИИ» и предостерегает от характеристики исследователей ИИ как «не желающих разрабатывать полезные проекты».

В своей книге « Совместимость с людьми» исследователь ИИ Стюарт Дж. Рассел перечисляет три принципа, которыми можно руководствоваться при разработке полезных машин. Он подчеркивает, что эти принципы не предназначены для явного кодирования в машинах; скорее, они предназначены для разработчиков-людей. Принципы следующие:

1. Единственная цель машины - максимально реализовать человеческие предпочтения.

2. Машина изначально не уверена в своих предпочтениях.

3. Конечным источником информации о человеческих предпочтениях является человеческое поведение.

«Предпочтения», о которых говорит Рассел, «всеобъемлющи; они охватывают все, что может вас волновать, сколь угодно далеко в будущем». Точно так же «поведение» включает в себя любой выбор между вариантами, а неопределенность такова, что некоторая вероятность, которая может быть довольно маленькой, должна быть присвоена каждому логически возможному предпочтению человека.

Публичная политика

Джеймс Баррат , автор книги « Наше последнее изобретение» , предположил, что «необходимо создать государственно-частное партнерство, чтобы объединить создателей искусственного интеллекта для обмена идеями о безопасности - что-то вроде Международного агентства по атомной энергии, но в партнерстве с корпорациями». Он призывает исследователей искусственного интеллекта созвать встречу, аналогичную конференции Asilomar по рекомбинантной ДНК , на которой обсуждались риски биотехнологии.

Джон МакГиннис призывает правительства ускорить исследования дружественного ИИ. Поскольку цели дружественного ИИ не обязательно выдающиеся, он предлагает модель, аналогичную модели Национальных институтов здравоохранения , где «экспертные группы компьютерных и когнитивных ученых просеивают проекты и выбирают те, которые предназначены как для развития ИИ, так и для гарантии того, что такие достижения будут сопровождаться соответствующими гарантиями ". МакГиннис считает, что экспертная оценка лучше, чем «регулирование для решения технических проблем, которые невозможно решить с помощью бюрократических предписаний». МакГиннис отмечает, что его предложение отличается от предложения Исследовательского института машинного интеллекта , который обычно стремится избежать вмешательства правительства в дружественный ИИ.

По словам Гэри Маркуса , ежегодные суммы денег, которые тратятся на развитие машинной морали, ничтожны.

Критика

Некоторые критики считают, что и ИИ человеческого уровня, и суперинтеллект маловероятны, и, следовательно, дружественный ИИ маловероятен. В статье для The Guardian Алан Уинфилд сравнивает искусственный интеллект человеческого уровня с путешествиями быстрее скорости света с точки зрения сложности и заявляет, что, хотя нам нужно быть «осторожными и подготовленными», учитывая ставки, мы «не обязаны быть одержимыми рисками сверхразума. Бойлс и Хоакин, с другой стороны, утверждают, что предложение Люка Мюльхаузера и Ника Бострома создать дружественный ИИ кажется мрачным. Это потому, что Мюльхаузер и Бостром, кажется, придерживаются идеи, что интеллектуальные машины можно запрограммировать так, чтобы они думали о моральных ценностях, которыми обладали бы люди. В статье в AI & Society Бойлс и Хоакин утверждают, что такие ИИ не будут столь дружелюбными, учитывая следующее: бесконечное количество предшествующих контрфактических условий, которые необходимо запрограммировать в машину, сложность обналичивания набора моральных принципов. ценности, то есть те, которые более идеальны, чем те, которыми человеческие существа обладают в настоящее время, и очевидное несоответствие между контрфактическими антецедентами и вытекающими из них идеальными ценностями.

Некоторые философы утверждают, что любой действительно «рациональный» агент, искусственный или человек, естественно, будет доброжелательным; с этой точки зрения, преднамеренные меры безопасности, разработанные для создания дружественного ИИ, могут быть ненужными или даже вредными. Другие критики задаются вопросом, может ли искусственный интеллект быть дружелюбным. Адам Кейпер и Ари Н. Шульман, редакторы технологического журнала The New Atlantis , говорят, что невозможно когда-либо гарантировать «дружелюбное» поведение в ИИ, потому что проблемы этической сложности не уступят место развитию программного обеспечения или увеличению вычислительной мощности. Они пишут, что критерии, на которых основаны теории дружественного ИИ, работают «только тогда, когда у человека есть не только большие возможности предсказания вероятности бесчисленных возможных результатов, но и уверенность и консенсус в отношении того, как оценивать различные результаты.

Смотрите также

использованная литература

дальнейшее чтение

внешние ссылки