Этика искусственного интеллекта - Ethics of artificial intelligence

В этике искусственного интеллекта является ветвью этики технологий , специфичных для искусственно интеллектуальных систем. Иногда его разделяют на озабоченность моральным поведением людей при проектировании, изготовлении, использовании и лечении систем с искусственным интеллектом и озабоченность поведением машин в машинной этике . Он также включает проблему возможной сингулярности из-за сверхразумного ИИ .

Подходы в этических сферах

Этика роботов

Термин «этика роботов» (иногда «робоэтика») относится к морали того, как люди проектируют, конструируют, используют и обращаются с роботами. Этика роботов пересекается с этикой ИИ. Роботы - это физические машины, тогда как ИИ может быть только программным обеспечением. Не все роботы работают через системы ИИ, и не все системы ИИ являются роботами. Этика роботов рассматривает, как машины могут быть использованы для вреда или для пользы людей, их влияние на индивидуальную автономию и их влияние на социальную справедливость.

Машинная этика

Машинная этика (или машинная мораль) - это область исследований, связанная с разработкой искусственных моральных агентов (AMA), роботов или компьютеров с искусственным интеллектом, которые ведут себя морально или как если бы морально. Чтобы объяснить природу этих агентов, было предложено рассмотреть некоторые философские идеи, такие как стандартные характеристики агентности , рационального действия , морального действия и искусственного действия, которые связаны с концепцией AMA.

Айзек Азимов рассматривал эту проблему в 1950-х годах в своей книге «Я, робот» . По настоянию своего редактора Джона У. Кэмпбелла-младшего он предложил Три закона робототехники для управления системами с искусственным интеллектом. Затем большая часть его работы была потрачена на проверку границ трех его законов, чтобы увидеть, где они нарушатся, а где приведут к парадоксальному или непредвиденному поведению. Его работа предполагает, что никакой набор фиксированных законов не может в достаточной степени предвидеть все возможные обстоятельства. Совсем недавно ученые и многие правительства оспорили идею о том, что ИИ можно привлечь к ответственности. Комиссия, созванная Соединенным Королевством в 2010 году, внесла поправки в законы Азимова, чтобы уточнить, что ответственность за ИИ несет либо его производитель, либо его владелец / оператор.

В 2009 году во время эксперимента в Лаборатории интеллектуальных систем Федеральной политехнической школы Лозанны в Швейцарии роботы, которые были запрограммированы на сотрудничество друг с другом (в поиске полезного ресурса и избегании ядовитого), в конечном итоге научились лгать каждому. другое в попытке накопить полезный ресурс.

Некоторые эксперты и ученые ставят под сомнение использование роботов в боевых действиях, особенно когда таким роботам дается некоторая степень автономности. ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения. Президент Ассоциации развития искусственного интеллекта заказал исследование, чтобы изучить этот вопрос. Они указывают на такие программы, как Language Acquisition Device, которые могут имитировать человеческое взаимодействие.

Вернор Виндж предположил, что может наступить момент, когда некоторые компьютеры умнее людей. Он называет это « сингулярностью ». Он предполагает, что это может быть в некоторой степени или, возможно, очень опасно для человека. Это обсуждается философией под названием сингулярность . Разведки научно - исследовательский институт Machine предложил необходимость создания « Дружественный ИИ », а это означает , что достижения , которые уже происходят с ИИ должны также включать в себя усилие , чтобы сделать AI внутренне дружелюбным и гуманным.

Обсуждается создание тестов, чтобы увидеть, способен ли ИИ принимать этические решения . Алан Уинфилд приходит к выводу, что тест Тьюринга ошибочен, и требования к ИИ для его прохождения слишком низки. Предлагаемый альтернативный тест называется этическим тестом Тьюринга, который улучшит текущий тест, если несколько судей решат, является ли решение ИИ этичным или неэтичным.

В 2009 году ученые и технические эксперты посетили конференцию, организованную Ассоциацией по развитию искусственного интеллекта, чтобы обсудить потенциальное влияние роботов и компьютеров и влияние гипотетической возможности того, что они могут стать самодостаточными и иметь возможность принимать собственные решения. . Они обсудили возможность и степень, в которой компьютеры и роботы могут получить любой уровень автономии, и в какой степени они могут использовать такие способности, чтобы, возможно, представлять какую-либо угрозу или опасность. Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе возможность самостоятельно находить источники энергии и возможность самостоятельно выбирать цели для атаки с помощью оружия. Они также отметили, что некоторые компьютерные вирусы могут уклоняться от уничтожения и достигли «тараканьего интеллекта». Они отметили, что самосознание, описанное в научной фантастике, вероятно, маловероятно, но есть и другие потенциальные опасности и подводные камни.

Однако, в частности, есть одна технология, которая действительно может воплотить в реальность возможности роботов, обладающих моральными качествами. В статье о приобретении роботами моральных ценностей Найеф Аль-Родхан упоминает случай нейроморфных чипов, которые стремятся обрабатывать информацию аналогично людям, нелинейно и с помощью миллионов взаимосвязанных искусственных нейронов. Роботы со встроенными нейроморфными технологиями могут учиться и развивать знания уникальным человеческим способом. Неизбежно возникает вопрос об окружающей среде, в которой такие роботы будут узнавать об окружающем мире и чью мораль они унаследуют, - или будут ли они в конечном итоге развивать человеческие «слабости»: эгоизм, стремление к выживанию, колебания и т. Д.

В книге «Моральные машины: обучение роботов правильно, а не неправильно» Венделл Уоллах и Колин Аллен приходят к выводу, что попытки научить роботов правильно от неправильного, вероятно, продвинут понимание человеческой этики, мотивируя людей устранять пробелы в современной нормативной теории и предоставляя платформу для экспериментальных исследований. В качестве одного из примеров он познакомил специалистов по нормативной этике с противоречивым вопросом о том, какие конкретные алгоритмы обучения использовать в машинах. Ник Бостром и Элиэзер Юдковски выступали за деревья решений (такие как ID3 ) над нейронными сетями и генетическими алгоритмами на том основании, что деревья решений подчиняются современным социальным нормам прозрачности и предсказуемости (например, пристальный взгляд ), в то время как Крис Сантос-Ланг утверждал обратное. на том основании, что нормы любого возраста должны быть изменены и что естественная неспособность полностью удовлетворить эти конкретные нормы сыграла важную роль в уменьшении уязвимости людей для преступных « хакеров ».

Согласно отчету Центра управления ИИ при Оксфордском университете за 2019 год, 82% американцев считают, что с роботами и ИИ нужно тщательно обращаться. Вызываемые опасения варьировались от того, как ИИ используется в наблюдении и распространении поддельного контента в Интернете (известных как глубокие подделки, когда они включают в себя подделанные видеоизображения и звук, созданные с помощью ИИ), до кибератак, нарушений конфиденциальности данных, предвзятого отношения к найму, автономных транспортных средств и дроны, которым не нужен человеческий контроллер.

Этические принципы искусственного интеллекта

В обзоре 84 руководящих принципов этики для ИИ были обнаружены 11 кластеров принципов: прозрачность, справедливость и беспристрастность, непричинение вреда, ответственность, конфиденциальность, благотворительность, свобода и автономия, доверие, устойчивость, достоинство, солидарность.

Лучано Флориди и Джош Коулз создали этическую основу принципов ИИ, основанную на четырех принципах биоэтики ( благотворительность , непричинение вреда , автономия и справедливость ) и дополнительном принципе обеспечения ИИ - объяснимости.

Прозрачность, подотчетность и открытый исходный код

Билл Хиббард утверждает, что, поскольку ИИ окажет такое глубокое влияние на человечество, разработчики ИИ являются представителями человечества будущего и, таким образом, несут этическое обязательство прозрачности в своих усилиях. Бен Гертцель и Дэвид Харт создали OpenCog как платформу с открытым исходным кодом для разработки ИИ. OpenAI - это некоммерческая исследовательская компания ИИ, созданная Илоном Маском , Сэмом Альтманом и другими для разработки ИИ с открытым исходным кодом на благо человечества. Существует множество других разработок AI с открытым исходным кодом.

К сожалению, создание кода с открытым исходным кодом не делает его понятным, что по многим определениям означает, что код ИИ непрозрачен. IEEE имеет усилия по стандартизации по обеспечению прозрачности AI. Усилия IEEE определяют несколько уровней прозрачности для разных пользователей. Кроме того, есть опасения, что раскрытие всех возможностей современного ИИ некоторым организациям может быть общественным злом, то есть причинить больше вреда, чем пользы. Например, Microsoft выразила озабоченность по поводу предоставления универсального доступа к своему программному обеспечению для распознавания лиц даже для тех, кто может за него заплатить. Microsoft опубликовала необычный блог на эту тему, в котором просила правительственное регулирование помочь определить, что нужно делать.

Не только компании, но и многие другие исследователи и гражданские защитники рекомендуют государственное регулирование как средство обеспечения прозрачности и, следовательно, подотчетности людей. Эта стратегия оказалась противоречивой, поскольку некоторые опасаются, что она замедлит темпы инноваций. Другие утверждают, что регулирование приводит к системной стабильности, более способной поддерживать инновации в долгосрочной перспективе. ОЭСР , ООН , ЕС , и многие страны в настоящее время разрабатывают стратегии для регулирования ИИ, а также найти соответствующие правовые рамки.

26 июня 2019 года Группа экспертов высокого уровня Европейской комиссии по искусственному интеллекту (AI HLEG) опубликовала свои «Политические и инвестиционные рекомендации для надежного искусственного интеллекта». Это второй результат AI HLEG после публикации в апреле 2019 г. «Руководящих принципов по этике надежного ИИ». Июньские рекомендации AI HLEG охватывают четыре основных темы: люди и общество в целом, исследования и академические круги, частный сектор и государственный сектор. Европейская комиссия утверждает, что «рекомендации ГЭВУ отражают оценку как возможностей технологий ИИ для стимулирования экономического роста, процветания и инноваций, так и потенциальных рисков», и заявляет, что ЕС стремится возглавить разработку политики, регулирующей ИИ. на международном уровне.

Этические проблемы

Предубеждения в системах искусственного интеллекта

Сенатор США Камала Харрис о расовой предвзятости в искусственном интеллекте в 2020 году

ИИ становится все более неотъемлемой частью систем распознавания лиц и голоса . Некоторые из этих систем имеют реальные бизнес-приложения и напрямую влияют на людей. Эти системы уязвимы для предубеждений и ошибок, вносимых их создателями-людьми. Кроме того, данные, используемые для обучения этих систем ИИ, могут иметь предвзятость. Например, у всех алгоритмов распознавания лиц , созданных Microsoft, IBM и Face ++, были предубеждения, когда дело доходило до определения пола людей; Эти системы искусственного интеллекта смогли определить пол белых мужчин более точно, чем пол мужчин с более темной кожей. Кроме того, в исследовании 2020 года, посвященном системам распознавания голоса от Amazon, Apple, Google, IBM и Microsoft, было обнаружено, что они имеют более высокий процент ошибок при расшифровке голосов чернокожих людей, чем белые. Кроме того, Amazon прекратила использование ИИ для найма и набора персонала, потому что алгоритм отдавал предпочтение кандидатам-мужчинам, а не женщинам. Это произошло потому, что система Amazon была обучена с использованием данных, собранных за 10-летний период, которые поступали в основном от кандидатов-мужчин.

Предвзятость может закрасться в алгоритмы разными способами. Например, Фридман и Ниссенбаум выделяют три категории предвзятости в компьютерных системах: существующая предвзятость, техническая предвзятость и возникающая предвзятость. При обработке естественного языка проблемы могут возникать из-за корпуса текста - исходного материала, который алгоритм использует для изучения взаимосвязей между различными словами.

Крупные компании, такие как IBM, Google и т. Д., Приложили усилия для исследования и устранения этих предубеждений. Одним из решений устранения предвзятости является создание документации для данных, используемых для обучения систем искусственного интеллекта.

Проблема предвзятости в машинном обучении, вероятно, станет более серьезной по мере того, как технология распространяется в критически важные области, такие как медицина и право, и поскольку все больше людей без глубоких технических знаний получают задание развернуть ее. Некоторые эксперты предупреждают, что алгоритмическая предвзятость уже широко распространена во многих отраслях и что почти никто не пытается ее выявить или исправить. Гражданское общество предлагает несколько инструментов с открытым исходным кодом, которые стремятся повысить осведомленность о предвзятом ИИ.

Права роботов

«Права роботов» - это концепция, согласно которой люди должны иметь моральные обязательства перед своими машинами, сродни правам человека или правам животных . Было высказано предположение, что права роботов (например, право на существование и выполнение своей собственной миссии) могут быть связаны с обязанностью роботов служить человечеству, аналогично связыванию прав человека с обязанностями человека перед обществом. Они могут включать право на жизнь и свободу, свободу мысли и выражения мнений и равенство перед законом. Этот вопрос рассматривался Институтом будущего и Министерством торговли и промышленности Великобритании .

Эксперты расходятся во мнениях относительно того, как скоро потребуются конкретные и подробные законы по этому вопросу. Гленн МакГи сообщил, что к 2020 году могут появиться достаточно гуманоидные роботы, а Рэй Курцвейл установил дату на 2029 году. Другая группа ученых, собравшаяся в 2007 году, предположила, что должно пройти не менее 50 лет, прежде чем какая-либо достаточно продвинутая система будет существовать.

Правила конкурса на премию Лебнера 2003 года предусматривали возможность появления у роботов собственных прав:

61. Если в каком-либо конкретном году общедоступная заявка с открытым исходным кодом, поданная Университетом Суррея или Кембриджским центром, получает Серебряную или Золотую медаль, то медаль и денежная премия будут присуждены органу, ответственному за развитие этой записи. Если такой орган не может быть идентифицирован или если есть разногласия между двумя или более заявителями, Медаль и Денежное вознаграждение будут храниться в доверительном управлении до тех пор, пока Заявка не сможет законно владеть, либо в Соединенных Штатах Америки, либо в место проведения конкурса, Денежная премия и Золотая медаль.

В октябре 2017 года андроид София получила «почетное» гражданство Саудовской Аравии , хотя некоторые сочли это скорее рекламным ходом, чем значимым юридическим признанием. Некоторые расценили этот жест как откровенное ущемление прав человека и верховенства закона .

Философия сентиентизма предоставляет степени морального уважения всем живым существам, в первую очередь людям и большинству нечеловеческих животных. Согласно этой философии, если искусственный или инопланетный интеллект демонстрирует признаки разумности , им следует проявить сострадание и предоставить им права.

Джоанна Брайсон утверждала, что создание ИИ, требующего прав, можно избежать и само по себе было бы неэтичным, как бремя для агентов ИИ, так и для человеческого общества.

Угроза человеческому достоинству

Джозеф Вайценбаум в 1976 году утверждал, что технологии искусственного интеллекта не должны использоваться для замены людей на должностях, требующих уважения и заботы, таких как:

  • Представитель службы поддержки клиентов (технология искусственного интеллекта уже используется сегодня для телефонных интерактивных систем голосового ответа )
  • Няня для престарелых (как сообщила Памела МакКордак в своей книге «Пятое поколение» )
  • Солдат
  • Судья
  • Полицейский
  • Терапевт (как было предложено Кеннетом Колби в 70-х годах)

Вайценбаум объясняет, что нам требуется подлинное чувство сочувствия от людей, занимающих эти должности. Если машины заменят их, мы окажемся отчужденными, обесцененными и разочарованными, поскольку система с искусственным интеллектом не сможет имитировать сочувствие. Искусственный интеллект, если его использовать таким образом, представляет собой угрозу человеческому достоинству. Вайценбаум утверждает, что тот факт, что мы допускаем возможность использования машин в этих положениях, предполагает, что мы испытали «атрофию человеческого духа, которая возникает из-за того, что мы думаем о себе как о компьютерах».

Памела МакКордак возражает, что, выступая от имени женщин и меньшинств, «я предпочитаю рискнуть с помощью беспристрастного компьютера», указывая на то, что есть условия, при которых мы предпочли бы иметь автоматизированных судей и полицию, у которых вообще нет личных интересов. Однако Каплан и Хенлайн подчеркивают, что системы искусственного интеллекта настолько умны, насколько умны данные, используемые для их обучения, поскольку они, по своей сути, являются не чем иным, как причудливыми машинами для подгонки кривых; Использование ИИ для поддержки решения суда может быть очень проблематичным, если прошлые постановления демонстрируют предвзятость по отношению к определенным группам, поскольку эти предубеждения формализуются и укореняются, что делает их еще более трудными для выявления и борьбы с ними.

Вайценбаума также беспокоило то, что исследователи ИИ (и некоторые философы) были готовы рассматривать человеческий разум как не более чем компьютерную программу (позиция, известная теперь как вычислительный подход ). Для Вайценбаума эти моменты предполагают, что исследования ИИ обесценивают человеческую жизнь.

Основатель искусственного интеллекта Джон Маккарти возражает против морализаторского тона критики Вайценбаума. «Когда морализаторство одновременно неистово и расплывчато, оно вызывает авторитарные злоупотребления», - пишет он. Билл Хиббард пишет, что «человеческое достоинство требует, чтобы мы старались устранить наше незнание природы существования, и для этого необходим ИИ».

Ответственность за беспилотные автомобили

Поскольку повсеместное использование автономных автомобилей становится все более неизбежным, необходимо решать новые проблемы, возникающие в связи с полностью автономными транспортными средствами. В последнее время ведутся дискуссии о юридической ответственности ответственной стороны в случае попадания этих автомобилей в аварию. В одном из сообщений, где автомобиль без водителя наехал на пешехода, водитель находился внутри автомобиля, но управление полностью находилось в руках компьютеров. Это привело к дилемме, кто виноват в аварии.

Во время другого инцидента 19 марта 2018 года Элейн Херцберг была сбита беспилотным Uber в Аризоне. В этом случае автоматизированный автомобиль был способен обнаруживать автомобили и определенные препятствия, чтобы автономно перемещаться по проезжей части, но не мог предвидеть пешехода посреди дороги. Это подняло вопрос о том, кто должен нести ответственность за ее смерть: водителя, пешехода, автомобильную компанию или правительство.

В настоящее время автомобили с автоматическим управлением считаются полуавтономными, что требует от водителя внимания и готовности взять на себя управление в случае необходимости. Таким образом, правительство должно регулировать водителя, который чрезмерно полагается на автономные функции. а также объясните им, что это всего лишь технологии, которые, хотя и удобны, не могут полностью заменить их. Прежде чем автономные автомобили получат широкое распространение, эти проблемы необходимо решить с помощью новой политики.

Вооружение искусственного интеллекта

Некоторые эксперты и ученые ставят под сомнение использование роботов в боевых действиях, особенно когда таким роботам предоставляется некоторая степень автономии. 31 октября 2019 года Совет по инновациям в обороне Министерства обороны США опубликовал проект отчета, в котором рекомендованы принципы этичного использования искусственного интеллекта Министерством обороны, которые гарантируют, что человек-оператор всегда сможет заглянуть в черный ящик »и поймите процесс kill-chain. Однако серьезную озабоченность вызывает то, как отчет будет реализован. ВМС США профинансировали отчет, в котором указывается, что по мере того, как военные роботы становятся все более сложными, следует уделять больше внимания последствиям их способности принимать автономные решения. Некоторые исследователи утверждают, что автономные роботы могут быть более гуманными, поскольку они могут принимать решения более эффективно.

В течение последнего десятилетия проводились интенсивные исследования автономной власти с возможностью учиться, используя возложенные моральные обязанности. «Результаты могут быть использованы при разработке будущих военных роботов, чтобы контролировать нежелательные тенденции и возложить ответственность на роботов». С консеквенциалистской точки зрения, есть шанс, что у роботов разовьется способность принимать собственные логические решения, кого убивать, и поэтому должны быть установлены моральные рамки, которые ИИ не может преодолеть.

В последнее время возникла критика в отношении разработки оружия искусственного интеллекта, которое включает в себя идеи о захвате человечества роботами. Оружие искусственного интеллекта действительно представляет собой тип опасности, отличный от оружия, управляемого человеком. Многие правительства начали финансировать программы по разработке оружия искусственного интеллекта. ВМС США недавно объявили о планах разработки автономных дронов , параллельно с аналогичными заявлениями России и Кореи соответственно. Из-за того, что оружие ИИ может стать более опасным, чем оружие, управляемое людьми, Стивен Хокинг и Макс Тегмарк подписали петицию «Будущее жизни» о запрете оружия ИИ. В сообщении, опубликованном Хокингом и Тегмарком, говорится, что оружие искусственного интеллекта представляет непосредственную опасность и что необходимы действия, чтобы избежать катастрофических бедствий в ближайшем будущем.

«Если какая-либо крупная военная держава продвинется вперед с разработкой оружия искусственного интеллекта, глобальная гонка вооружений практически неизбежна, и конечная точка этой технологической траектории очевидна: автономное оружие станет автоматами Калашникова завтрашнего дня», - говорится в петиции, в которую входит соавтор Skype. - основатель Яан Таллинн и профессор лингвистики Массачусетского технологического института Ноам Хомски в качестве дополнительных сторонников борьбы с оружием искусственного интеллекта.

Королевский физик и астроном сэр Мартин Рис предупреждал о таких катастрофических случаях, как «тупые роботы-мошенники или сеть, развивающая собственный разум». Хью Прайс , коллега Риса из Кембриджа, высказал аналогичное предупреждение о том, что люди могут не выжить, когда интеллект «выйдет из ограничений биологии». Эти два профессора создали Центр изучения рисков для существования в Кембриджском университете в надежде избежать этой угрозы человеческому существованию.

Что касается возможности использования в военных целях более разумных, чем человеческих, систем, Open Philanthropy Project пишет, что эти сценарии «кажутся потенциально такими же важными, как и риски, связанные с потерей контроля», но исследования, изучающие долгосрочное социальное воздействие ИИ, потратили относительно мало времени на эту проблему: «этот класс сценариев не был основным фокусом для организаций, которые были наиболее активны в этой области, таких как Исследовательский институт машинного интеллекта (MIRI) и Институт будущего человечества (FHI), и похоже, что по ним было меньше анализа и споров ".

Непрозрачные алгоритмы

Такие подходы, как машинное обучение с нейронными сетями, могут привести к тому, что компьютеры будут принимать решения, которые они и люди, которые их запрограммировали, не могут объяснить. Людям сложно определить, являются ли такие решения справедливыми и заслуживающими доверия, что потенциально может привести к необнаружению предвзятости в системах ИИ или к отказу людей от использования таких систем. Это привело к пропаганде и в некоторых юрисдикциях юридическим требованиям для объяснимого искусственного интеллекта .

Сингулярность

Многие исследователи утверждали, что благодаря «взрыву интеллекта» самосовершенствующийся ИИ может стать настолько мощным, что люди не смогут помешать ему достичь своих целей. В своей статье «Этические проблемы передового искусственного интеллекта» и последующей книге « Суперинтеллект: пути, опасности, стратегии» философ Ник Бостром утверждает, что искусственный интеллект способен привести к вымиранию человечества. Он утверждает, что общий суперинтеллект будет способен проявлять независимую инициативу и строить свои собственные планы, и поэтому его более уместно рассматривать как автономного агента. Поскольку искусственный интеллект не обязательно разделяет наши человеческие мотивационные тенденции, разработчики суперинтеллекта должны определить его исходные мотивы. Поскольку суперинтеллектуальный ИИ способен вызвать практически любой возможный результат и помешать любой попытке помешать реализации его целей, может возникнуть множество неконтролируемых непредвиденных последствий . Он может убить всех других агентов, убедить их изменить свое поведение или заблокировать их попытки вмешательства.

Однако вместо того, чтобы подавить человечество и привести к нашему разрушению, Бостром также утверждал, что суперинтеллект может помочь нам решить многие сложные проблемы, такие как болезни, бедность и разрушение окружающей среды, и может помочь нам «улучшить» себя.

Совершенная сложность систем человеческих ценностей делает очень трудным сделать мотивацию ИИ понятной для человека. Если моральная философия не предоставит нам безупречную этическую теорию, функция полезности ИИ может допускать множество потенциально вредных сценариев, которые соответствуют данной этической структуре, но не «здравому смыслу». Согласно Элиэзеру Юдковски , нет особых оснований предполагать, что искусственно созданный разум будет иметь такую ​​адаптацию. Исследователи искусственного интеллекта, такие как Стюарт Дж. Рассел , Билл Хиббард , Роман Ямпольский , Шеннон Валлор , Стивен Амбрелло и Лучано Флориди , предложили стратегии проектирования для разработки полезных машин.

Актеры в этике ИИ

Существует множество организаций, занимающихся этикой и политикой в ​​области ИИ, как государственных и государственных, так и корпоративных и общественных.

Amazon , Google , Facebook , IBM и Microsoft учредили некоммерческую организацию Партнерство по искусственному интеллекту на благо людей и общества, чтобы формулировать передовой опыт в области технологий искусственного интеллекта, способствовать пониманию общества и служить платформой для искусственного интеллекта. . Apple присоединилась к компании в январе 2017 года. Корпоративные члены будут вносить финансовые и исследовательские вклады в группу, а также взаимодействовать с научным сообществом, чтобы привлечь ученых в совет.

IEEE сколотить Глобальную инициативу по этике автономных и интеллектуальных систем , которая занимается созданием и пересматривают принципы с помощью публичного ввода, и принимает в качестве членов многих специалистов извне и изнутри его организации.

Традиционно, правительство используется обществами для обеспечения этика наблюдается в рамках законодательства и правопорядка. В настоящее время национальные правительства, а также транснациональные правительственные и неправительственные организации прилагают много усилий для обеспечения этичного применения ИИ.

Межправительственные инициативы:

  • Европейская комиссия имеет группу экспертов высокого уровня по искусственному интеллекту. 8 апреля 2019 года были опубликованы «Принципы этики надежного искусственного интеллекта». В Европейской комиссии также есть отдел инноваций и совершенства в области робототехники и искусственного интеллекта, который 19 февраля 2020 года опубликовал официальный документ о совершенстве и доверии к инновациям в области искусственного интеллекта.
  • ОЭСР создана обсерватория ОЭСР политики AI.

Правительственные инициативы:

  • В Соединенных Штатах Обама администрация собрать дорожную карту для AI политики. Администрация Обамы выпустила два важных официальных документа о будущем и влиянии ИИ. В 2019 году Белый дом в служебной записке, известной как «Американская инициатива в области ИИ», поручил NIST (Национальному институту стандартов и технологий) начать работу над федеральным взаимодействием по стандартам ИИ (февраль 2019 года).
  • В январе 2020 года в Соединенных Штатах администрация Трампа опубликовала проект распоряжения Управления по управлению и бюджету (OMB) о «Руководстве по регулированию приложений искусственного интеллекта» («Меморандум OMB AI»). необходимо инвестировать в приложения ИИ, повысить общественное доверие к ИИ, снизить барьеры для использования ИИ и сохранить конкурентоспособность американских технологий ИИ на мировом рынке. Есть намек на необходимость заботы о конфиденциальности, но никаких дополнительных подробностей о правоприменении. достижения американской технологии искусственного интеллекта, кажется, находятся в центре внимания и приоритета. Кроме того, федеральные органы даже поощряются использовать приказ, чтобы обходить любые законы и постановления штата, которые рынок может счесть слишком обременительными для выполнения.
  • Computing Community Consortium (CCC) взвешивают с проекта доклада 100 плюс страница - 20-летний Сообщество Дорожная карта для искусственного интеллекта исследований в США
  • Центр по безопасности и Emerging Technology советует политикам о последствиях безопасности новых технологий , таких как AI.
  • Non-Human партия работает на выборы в Новом Южном Уэльсе , с политикой вокруг предоставления прав на робот, животное и в целом, субъекты нечеловеческих чьи разум был упускать из вида.

Академические инициативы:

Роль и влияние художественной литературы на этику искусственного интеллекта

Роль художественной литературы в отношении этики ИИ была сложной. Можно выделить три уровня, на которых художественная литература повлияла на развитие искусственного интеллекта и робототехники: исторически художественная литература являлась прообразом общих стереотипов, которые не только влияли на цели и видение ИИ, но также обрисовывали этические вопросы и общие опасения, связанные с ним. Во второй половине двадцатого и первых десятилетиях двадцать первого века популярная культура, в частности фильмы, сериалы и видеоигры, часто повторяла озабоченность и антиутопические прогнозы по этическим вопросам, касающимся ИИ и робототехники. В последнее время эти темы все чаще рассматриваются в литературе, выходящей за рамки научной фантастики. И, как отмечает Карме Торрас, профессор-исследователь в Institut de Robòtica i Informàtica Industrial (Институт робототехники и промышленных вычислений) Технического университета Каталонии, в высшем образовании научная фантастика также все чаще используется для преподавания этических вопросов, связанных с технологиями. технологические степени.

История

С исторической точки зрения исследование моральных и этических последствий «мыслящих машин» восходит, по крайней мере, к эпохе Просвещения: Лейбниц уже ставит вопрос, можем ли мы приписать интеллект механизму, который ведет себя так, как если бы он был разумным существом, и Декарт тоже. , который описывает то, что можно считать ранней версией теста Тьюринга.

В романтический период несколько раз появлялись искусственные существа, которые выходили из-под контроля своего создателя с ужасными последствиями, наиболее известный из них - « Франкенштейн» Мэри Шелли . Однако широко распространенная озабоченность индустриализацией и механизацией в 19-м и начале 20-го веков выдвинула на передний план художественной литературы этические последствия неудачных технических разработок: RUR - универсальные роботы Россум , игра Карла Чапека о разумных роботах, наделенных эмоциями, используемыми в качестве рабского труда. не только приписывают изобретение термина «робота» (производный от чешского слова для принудительного труда, робота ) , но был также международный успех после премьеры в 1921 году Джордж Бернард Шоу играть Вернуться к Metuselah , опубликованной в 1921 году, вопросы на один пункт - обоснованность мыслящих машин, которые действуют как люди; В фильме Фрица Ланга « Метрополис » 1927 года показан андроид, возглавляющий восстание эксплуатируемых масс против репрессивного режима технократического общества.

Влияние художественной литературы на технологическое развитие

В то время как ожидание будущего, в котором будут доминировать потенциально неукротимые технологии, долгое время подпитывало воображение писателей и режиссеров, один вопрос анализировался реже, а именно, в какой степени художественная литература сыграла роль в обеспечении вдохновения для технологического развития. Например, документально подтверждено, что молодой Алан Тьюринг увидел и оценил пьесу Дж. Б. Шоу « Назад к Метуселаху» в 1933 году (всего за 3 года до публикации его первой основополагающей статьи, заложившей основу для цифрового компьютера), и он, вероятно, были, по крайней мере, осведомлены о таких пьесах, как « RUR» , которые имели международный успех и были переведены на многие языки.

Можно также задать вопрос, какую роль сыграла научная фантастика в установлении принципов и этических последствий развития ИИ: Айзек Азимов концептуализировал свои « Три закона робототехники» в рассказе 1942 года « Обход », входящем в сборник рассказов I, Робот ; Короткометражный фильм Артура Кларка « Часовой », на котором основан фильм Стэнли Кубрика « 2001: Космическая одиссея» , был написан в 1948 году и опубликован в 1952 году. Другим примером (среди многих других) могут быть многочисленные рассказы и романы Филипа К. Дикса. - в частности Мечтают ли андроиды об электрических овцах? , опубликованный в 1968 году и содержащий собственную версию теста Тьюринга, тест Войта-Кампфа , для оценки эмоциональных реакций андроидов, неотличимых от людей. Позже роман стал основой влиятельного фильма 1982 года « Бегущий по лезвию » Ридли Скотта.

Научная фантастика десятилетиями борется с этическими последствиями разработок искусственного интеллекта и, таким образом, предоставила план для этических проблем, которые могут возникнуть, когда будет достигнуто что-то вроде общего искусственного интеллекта: фильм Спайка Джонза 2013 года « Она» показывает, что может произойти, если пользователь упадет. влюблен в соблазнительный голос операционной системы своего смартфона; Ex Machina , с другой стороны, задает более сложный вопрос: если бы мы столкнулись с четко узнаваемой машиной, сделанной только человеком по лицу и чуткому и чувственному голосу, сможем ли мы по-прежнему установить эмоциональную связь, по-прежнему соблазненные Это ? (Фильм перекликается с темой, уже присутствовавшей двумя столетиями ранее, в рассказе ЭТА Хоффманна «Песчаная губа » 1817 года . )

Тема сосуществования с искусственными разумными существами также является темой двух недавних романов: « Машины, подобные мне » Иэна Макьюэна , опубликованные в 2019 году, включают (среди прочего) любовный треугольник с участием искусственного человека, а также человеческой пары. Клара и ВС на Нобелевскую премию лауреата Кадзуо Исигуро , опубликованный в 2021 году, является первым человеком счет Клары, «AF» (искусственный друг), который пытается, по - своему, чтобы помочь девушке , она живет с , который после того, как его «подняли» (т.е. подверглись генетическому усовершенствованию), страдает странной болезнью.

Телевизионный сериал

В то время как этические вопросы, связанные с ИИ, обсуждались в научно-фантастической литературе и художественных фильмах на протяжении десятилетий, появление телесериалов как жанра, допускающего более длинные и сложные сюжетные линии и развитие персонажей, привело к значительному вкладу в этические аспекты. технологии. Шведский сериал « Настоящие люди» (2012–2013) посвящен сложным этическим и социальным последствиям, связанным с интеграцией искусственных разумных существ в общество. Британская антиутопическая научно-фантастическая антология « Черное зеркало» (2013–2019) особенно примечательна тем, что экспериментировала с разработками антиутопической фантастики, связанными с широким спектром новейших технологических разработок. И французский сериал Osmosis (2020), и британский сериал The One посвящены вопросу о том, что может случиться, если технологии попытаются найти идеального партнера для человека.

Видения будущего в художественной литературе и играх

Фильм «Тринадцатый этаж» предлагает будущее, в котором симулированные миры с разумными обитателями создаются компьютерными игровыми консолями для развлечения. Фильм «Матрица» предлагает будущее, в котором доминирующими видами на планете Земля будут разумные машины, а к человечеству будут относиться с предельным видоизменением . Рассказ « Планковское погружение » предлагает будущее, в котором человечество превратилось в программное обеспечение, которое можно дублировать и оптимизировать, и соответствующее различие между типами программного обеспечения является разумным и неразумным. Та же мысль можно найти в экстренной медицинской Голограмме из Starship Voyager , который является , по- видимому чувствующим копию восстановленного подмножества сознания его создателя, доктор Циммерман , который, для лучших побуждений, создал систему , чтобы дать медицинским помощь в экстренных случаях. Фильмы « Человек двухсотлетия» и « ИИ» рассказывают о возможности разумных роботов, которые могут любить. Я, Робот, исследовал некоторые аспекты трех законов Азимова. Все эти сценарии пытаются предвидеть возможные неэтичные последствия создания разумных компьютеров.

Этика искусственного интеллекта - одна из нескольких ключевых тем в серии игр Mass Effect от BioWare . В нем исследуется сценарий, в котором цивилизация случайно создает ИИ путем быстрого увеличения вычислительной мощности с помощью нейронной сети глобального масштаба . Это событие вызвало этический раскол между теми, кто считал, что наделение органических прав только что разумных гетов было уместным, и теми, кто продолжал рассматривать их как одноразовую технику и боролся за их уничтожение. Помимо первоначального конфликта, сложность отношений между машинами и их создателями - еще одна постоянная тема на протяжении всей истории.

С течением времени дебаты все меньше и меньше сосредотачивались на возможности и больше на желательности , как подчеркивалось в дебатах «Космист» и «Терран», инициированных Хьюго де Гарисом и Кевином Уорвиком . Космист, согласно Уго де Гарису, на самом деле стремится создать более разумных преемников человеческого вида.

Эксперты Кембриджского университета утверждают, что ИИ изображается в художественной и документальной литературе исключительно как расовый Белый, что искажает представление о его рисках и преимуществах.

Смотрите также

Исследователи
Организации

Примечания

внешние ссылки