Сверхразум: пути, опасности, стратегии -Superintelligence: Paths, Dangers, Strategies

Сверхразум:
пути, опасности, стратегии
Superintelligence.jpg
Первое издание
Автор Ник Бостром
Страна Объединенное Королевство
Язык английский
Тема Искусственный интеллект
Жанр Философия , научно-популярная
Издатель Oxford University Press
Дата публикации
3 июля 2014 г. (Великобритания)
1 сентября 2014 г. (США)
Тип СМИ Печать, электронная книга, аудиокнига
Страницы 352 стр.
ISBN 978-0199678112
Предшествует Глобальные катастрофические риски 

Сверхразум: пути, опасности, стратегии - это книга шведского философа Ника Бострома из Оксфордского университета , вышедшая в 2014 году. В нем утверждается, что если машинный мозг превзойдет человеческий мозг в целом, то этот новый сверхразум сможет заменить людей в качестве доминирующей формы жизни на Земле. Достаточно интеллектуальные машины могли бы улучшить свои собственные возможности быстрее, чем ученые-компьютерщики, и результатом этого могла бы стать экзистенциальная катастрофа для людей.

Книга Бострома переведена на многие языки.

Синопсис

Неизвестно, появится ли искусственный интеллект человеческого уровня через несколько лет, позднее в этом столетии или не раньше, чем в грядущие столетия. Независимо от первоначальной временной шкалы, как только будет разработан машинный интеллект человеческого уровня, «суперинтеллектуальная» система, которая «значительно превосходит когнитивные способности человека практически во всех областях, представляющих интерес», скорее всего, появится на удивление быстро. Такой суперинтеллект было бы очень трудно контролировать или сдерживать.

Хотя конечные цели суперинтеллекта могут сильно различаться, функциональный суперинтеллект спонтанно порождает в качестве естественных подцелей « инструментальные цели », такие как самосохранение и целостность содержания цели, когнитивное улучшение и приобретение ресурсов. Например, агент, единственной конечной целью которого является решение гипотезы Римана (знаменитая нерешенная математическая гипотеза ), может создать подзадачу преобразования всей Земли в некоторую форму вычислительного вещества (гипотетический материал, оптимизированный для вычислений) и действовать в соответствии с ним, чтобы помочь в решении этой задачи. расчет. Сверхразум будет активно противодействовать любым внешним попыткам выключить сверхразум или иным образом предотвратить выполнение его подцели. Чтобы предотвратить такую экзистенциальную катастрофу , необходимо успешно решить « проблему управления ИИ » для первого сверхразума. Решение может включать привитие суперинтеллекта целям, совместимым с выживанием и благополучием человека. Решение проблемы управления на удивление сложно, потому что большинство целей при переводе в машинно-реализуемый код приводят к непредвиденным и нежелательным последствиям.

Сова на обложке книги отсылает к аналогии, которую Бостром называет «Неоконченная басня о воробьях». Группа воробьев решает найти птенца совы и вырастить его как своего слугу. Они с нетерпением представляют, «насколько легкой была бы жизнь», если бы у них была сова, которая помогала строить их гнезда, защищала воробьев и освобождала их для жизни в свободное время. Воробьи начинают трудный поиск совиного яйца; только «Скронкфинкл», «одноглазый воробей с капризным темпераментом», предлагает задуматься над сложным вопросом о том, как приручить сову, прежде чем занести ее «в нашу среду». Остальные воробьи возражают; поиск совиного яйца уже сам по себе будет достаточно сложным: «Почему бы сначала не поймать сову, а потом проработать мелкие детали?» Бостром заявляет, что «неизвестно, чем закончится эта история», но он посвящает свою книгу Скронкфинклю.

Прием

Книга заняла 17-е место в списке самых продаваемых научных книг The New York Times за август 2014 года. В том же месяце бизнес-магнат Илон Маск попал в заголовки газет, согласившись с книгой о том, что искусственный интеллект потенциально более опасен, чем ядерное оружие. Работа Бострома над суперинтеллектом также повлияла на озабоченность Билла Гейтса экзистенциальными рисками, с которыми столкнется человечество в грядущем столетии. В мартовском интервью 2015 года генеральным директором Baidu Робином Ли Гейтс сказал, что он «очень рекомендовал бы» суперинтеллект . Согласно New Yorker , философы Питер Сингер и Дерек Парфит «восприняли это как важный труд».

Научный редактор Financial Times обнаружил, что письмо Бострома «иногда сводится к непрозрачному языку, который выдает его опыт работы в качестве профессора философии», но убедительно демонстрирует, что риск, связанный с суперинтеллектом, достаточно велик, и общество должно начать думать о способах создания будущего машинного интеллекта. с положительными значениями. В обзоре The Guardian отмечалось, что «даже самые сложные машины, созданные до сих пор, обладают интеллектом лишь в ограниченном смысле» и что «ожидания того, что ИИ вскоре превзойдет человеческий интеллект, впервые не оправдались в 1960-х», но находят общий язык с Бостромом. сообщая, что «было бы неблагоразумно отказываться от возможности вообще».

Некоторые коллеги Бострома предполагают, что ядерная война представляет большую угрозу для человечества, чем суперинтеллект, как и будущие перспективы создания оружия для нанотехнологий и биотехнологий . The Economist заявил, что «Бостром вынужден потратить большую часть книги на обсуждение предположений, построенных на правдоподобном предположении ... но книга, тем не менее, ценна. даже если перспектива сделать это кажется маловероятной ". Рональд Бейли написал в либертарианской книге « Причина», что Бостром убедительно утверждает, что решение проблемы управления ИИ является «важнейшей задачей нашего века». По словам Тома Чиверса из Daily Telegraph , книгу трудно читать, но, тем не менее, она полезна. Рецензент в Журнале экспериментального и теоретического искусственного интеллекта порвал с другими, заявив, что «стиль написания книги ясен», и похвалил книгу за то, что она избегает «чрезмерно технического жаргона». Рецензент по философии оценил суперинтеллект как «более реалистичный», чем « Сингулярность близка» Рэя Курцвейла .

Смотрите также

использованная литература