Искусственный интеллект - Artificial intelligence


Из Википедии, свободной энциклопедии

Искусственный интеллект ( ИИ ), который иногда называют машинным интеллектом , это интеллект демонстрирует машины , в отличии от естественного интеллекта , отображаемого человеком и другими животными. В информатике исследование ИИ определяются как изучение « интеллектуальных агентов »: любое устройство , которое воспринимает свою окружающую среду и принимает меры , которые максимизируют свой шанс успешного достижения своих целей. Colloquially, термин «искусственный интеллект» применяется , когда машина имитирует «когнитивный» функция , что люди связывают с другими человеческими умами , такими как «обучение» и «решения проблем».

Область ИИ является спорным: поскольку машины становятся все более и более способными, задачи , рассматриваемые как требующие «интеллект» часто удаляются из определения, явление , известное как эффект AI , что приводит к остроте в теореме TESler, в «ИИ независимо не имеет было сделано еще «. Например, оптическое распознавание символов часто исключается из «искусственного интеллекта», став обычной технологии. Современные возможности машины обычно классифицируются как ИИ включают в себя успешно понимать человеческую речь , конкурирующих на самом высоком уровне в стратегических игровых системах (таких как шахматы и Go ), автономно работающих машин и интеллектуальной маршрутизации в контентной сети доставки и военного моделирования .

Заимствование из управления литературы, Каплан и Haenlein классификации искусственного интеллекта в трех различных типах систем искусственного интеллекта: аналитический, человек-вдохновение, и гуманизированного искусственного интеллекта. Аналитическое AI имеет только характеристики в соответствии с когнитивной интеллекта формирования когнитивного представления о мире и с помощью обучения на основе прошлого опыта осознанного принятия будущих решений. Человек-вдохновенный ИИ элементы познавательного, а также эмоциональный интеллект , понимание, в дополнении к познавательным элементам, также человеческие эмоции рассматривают их в процессе принятия решений . Гуманизированный AI показывает характеристики всех видов компетентности (т.е. когнитивный, эмоциональный и социальный интеллект ), способных быть застенчивыми и самосознанием во взаимодействии с другими людьми.

Искусственный интеллект был основан как академической дисциплины в 1956 г. и в последующие годы пережила несколько волн оптимизма, а затем разочарования и потери средств (известный как « AI зимой »), а затем новые подходы, успех и возобновление финансирования , Большую часть своей истории исследование ИИ было разделено на подполя , которые часто не общаются друг с другом. Эти субполя основаны на технических соображениях, такие как конкретные цели (например , « робототехника » или «машинное обучение»), использование конкретных инструментов ( «логики» или искусственных нейронных сети ), или глубокие философские различия. Подполя также были основаны на социальных факторов (конкретных учреждений или работы отдельных исследователей).

Традиционные проблемы (или цель) исследование ИИ включает в себя рассуждение , представление знаний , планирование , обучение , обработку естественного языка , восприятие и способность двигаться и манипулировать объекты. Общие сведения является одним из долгосрочных целей месторождения. Подходы включают статистические методы , вычислительный интеллект , и традиционный символический ИИ . Многие инструменты используются в AI, включая версии поиска и математической оптимизации , искусственных нейронных сетей , а также методы , основанные на статистике, вероятность и экономики . Поле ИИ опирается на информатике , информационной инженерии , математики , психологии , лингвистики , философии и многих других.

Поле было основано на утверждении , что человеческий интеллект «может быть настолько точно описано , что машина может быть сделано , чтобы имитировать его». Это поднимает философские рассуждения о природе ума и этиках создания искусственных существ , наделенных подобных человеческой разведкой , которые являются вопросами , которые были исследованы с помощью мифа , художественной литературы и философии начиная с античности . Некоторые люди также считают AI будет представлять опасность для человечества , если она прогрессирует не ослабевает. Другие считают , что ИИ, в отличие от предыдущих технологических революций, создаст риск массовой безработицы .

В двадцать первом веке, методы искусственного интеллекта пережили возрождение следующие одновременно достижений в области компьютерной мощности , больших объемов данных и теоретического понимания; и методы искусственного интеллекта стали неотъемлемой частью индустрии высоких технологий , помогает решать многие сложные проблемы в области информатики, программной инженерии и исследования операций .

содержание

история

Талос , древний мифический автомат с искусственным интеллектом

Мысль-способные искусственные существа появились повествующих устройств в древности, и были распространены в художественной литературе, как и в Мэри Шелли «s Франкенштейна или Карел Чапек » s RUR (Россум Универсальный роботов) . Эти символы и их судьбы подняли многие из тех же вопросов , обсуждаемых в настоящее время в этике искусственного интеллекта .

Изучение механического или «формального» рассуждение началось с философами и математиками древности. Изучение математической логики непосредственно привело к Alan Turing «s теории вычислений , который предположил , что машину, путем перестановки символов так просто , как„0“и„1“, может имитировать любой мыслимый акт математической дедукции. Это понимание, что цифровые компьютеры могут имитировать любой процесс формальных рассуждений, известен как тезиса Черча-Тьюринга . Наряду с параллельными открытиями в нейробиологии , теории информации и кибернетике , это привело исследователь рассмотреть возможность создания электронного мозга. Тьюринг предложил , что «если человек не может отличить ответы от машины и человека, машина может рассматриваться как „умная“. Первая работой , которая в настоящее время общепризнанна , как ИИ была McCullouch и Питтс '1943 формальной конструкцией для Тьюринга «искусственные нейроны».

Поле исследований ИИ родился в мастерской в Дартмут колледже в 1956 году Attendees Аллен Ньюэлл ( КМУ ), Герберт Саймон ( CMU ), Джон Маккарти ( MIT ), Марвин Мински ( MIT ) и Артур Самуэль ( IBM ) стали основателями и лидеры исследований ИИ. Они и их студенты получают программы, пресса , описанную как «удивительно»: компьютеры обучения шашек стратегии (и к 1959 году по сообщениям играли лучше , чем средний человек), решение задач в алгебре, доказывая логические теоремы ((с 1954) . Логикой Теоретик , первый запуск с. 1956) , и говорить по- английски. К середине 1960 - х годов, исследования в США был в значительной степени финансируется за счет Министерства обороны и лаборатории были созданы по всему миру. Основатели ИИ оптимистично смотрит в будущее: Герберт Саймон предсказал, «машины будут способны, в течение двадцати лет, делать любую работу , человек может сделать». Марвин Мински согласился, написав, « в пределах поколения ... проблема создания„искусственного интеллекта“существенно решить».

Они не в состоянии признать трудность некоторых из оставшихся задач. Прогресс замедлился , а в 1974 году, в ответ на критику сэр Джеймс Лайтхилла и постоянное давление со стороны Конгресса США финансировать более производительные проекты, как США , так и британское правительство отрезать разведочное исследование в AI. Следующие несколько лет позже будет называться « AI зима », период , когда получение финансирования для проектов ИИ было трудно.

В начале 1980 - х годов исследование ИИ был возрожден коммерческий успех экспертных систем , в виде программы AI, моделирующей знания и аналитические способности человеческих экспертов. К 1985 году рынок ИИ достиг более миллиарда долларов. В то же время, в Японии поколение компьютеров пятого проекта вдохновил американские и британские правительства восстановить финансирование научных исследований. Однако, начиная с распадом Лиспом машины рынка в 1987 году, AI в очередной раз попал в дурную славу, и начался второй, более длительный перерыв.

В конце 1990 - х и начало 21 - го века, А. И. начал использоваться для материально - технического обеспечения, интеллектуального анализа данных , медицинской диагностики и других областей. Успех был обусловлен увеличением вычислительной мощности (см закон Мура ), больший акцент на решении конкретных проблем, новых связей между ИИ и других областях (например, статистики , экономики и математики ), а также приверженность исследователей к математическим методам и научным стандартам. Deep Blue стал первым компьютером шахматы система игры бить царящая чемпиона мира по шахматам, Гарри Каспаров , 11 мая 1997 года.

В 2011 году Jeopardy! викторины выставки матч, IBM «s вопросно - ответная система , Уотсон , поражение двух величайших Jeopardy! чемпионы, Брэд Раттер и Кен Дженнингс , с большим отрывом. Быстрее компьютеры , алгоритмические улучшения, а также доступ к большим объемам данных позволило достижения в области машинного обучения и восприятия; данные голодные глубокие учебные методы начали доминировать точность тесты примерно в 2012 году . Kinect , которая обеспечивает интерфейс тела движения 3D для Xbox 360 и Xbox One , использует алгоритмы , которые возникли из длительных исследований ИИ , как это делают умные личные помощник в смартфонах . В марте 2016 года, AlphaGo выиграл 4 из 5 игр Go в матче с чемпионом Go Ли SEDOL , став первым компьютером Go система игры бить профессиональный игрок Go без недостатками . В 2017 году будущего Go Summit , AlphaGo выиграл матч три игр с Ke Jie , который в то время постоянно удерживал мир № 1 рейтинг в течение двух лет. Это ознаменовало завершение важной вехи в развитии искусственного интеллекта , как Go чрезвычайно сложная игра, тем более, чем шахматы.

По словам Блумберга Джека Кларк, 2015 стал знаковым годом для искусственного интеллекта, с количеством программных проектов , которые используют AI в Google увеличился с «спорадическим использования» в 2012 году до более чем 2700 проектов. Кларк также представлены фактические данные , показывающие , что количество ошибок в задачах обработки изображений , существенно сократились с 2011 года он приписывает это увеличение доступных нейронных сетей , в связи с ростом облачных вычислений инфраструктуры и увеличению исследовательских инструментов и наборов данных. Другой привел примеры включают разработку Microsoft, системы Skype , которая может автоматически переводить с одного языка на другой и системе Facebook, которая может описывать изображения для слепых людей. В 2017 году исследования, один из пяти компаний сообщили , что они «включены AI в некоторых предложениях или процессов». Около 2016 года, Китай значительно ускорил государственное финансирование; учитывая его большой запас данных и его быстро растущей научной продукции, некоторые наблюдатели полагают , что это может быть на пути , чтобы стать «AI сверхдержавой».

основы

Типичный ИИ воспринимает свою окружающую среду и предпринимает действия , которые максимизируют свой шанс успешного достижения своих целей. Предназначен ИИ в целевой функции могут быть простыми ( «1 , если ИИ выигрывает игру Go , 0 в противном случае») или комплекс ( «Есть ли действия математически аналогичны действиям , которые получили вам награды в прошлом»). Цели могут быть четко определены, или могут быть вызваны. Если ИИ запрограммирован для « обучения с подкреплением », цели могут быть неявно индуцируется вознаграждая некоторых видов поведения и наказания других. С другой стороны , эволюционная система может индуцировать цели с помощью « функции пригодности » мутировать и предпочтительно повторить высокий балл систему ИИ; это подобно тому , как животные эволюционировали врожденное желание определенных целей , такие как поиск пищи, или как собаки могут быть выращены с помощью искусственного отбора , чтобы иметь желаемые черты. Некоторые системы искусственного интеллекта, например, ближайший сосед, а не причина , по аналогии; эти системы обычно не дали целей, за исключением той степени , что цели являются как - то подразумевается в их обучающих данных. Такие системы могут еще быть протестированными , если система , не цель оформлена как система , чья «цель», чтобы успешно выполнить свою узкую задачу классификации.

AI часто вращается вокруг использования алгоритмов . Алгоритм представляет собой набор однозначных инструкций , которые могут выполняться механический компьютер. Сложный алгоритм часто построен на вершине других, более простых, алгоритмов. Простой пример алгоритма является следующий рецепт для оптимальной игры в крестики-нолики :

  1. Если кто-то имеет «угрозу» (то есть, два подряд), возьмите оставшуюся площадь. Иначе,
  2. Если перемещение «вилки», чтобы создать две угрозы сразу же, играть в этот ход. Иначе,
  3. взять на себя центральный квадрат, если она свободна. Иначе,
  4. если ваш противник играл в углу, возьмите противоположный угол. Иначе,
  5. взять пустой угол, если таковой существует. Иначе,
  6. взять любой пустой квадрат.

Многие алгоритмы искусственного интеллекта способны учиться из данных; они могут улучшить себя, изучая новые эвристические методы (стратегии, или «правила большого пальца», которые хорошо зарекомендовали себя в прошлом), или сам может писать другие алгоритмы. Некоторые из «учеников» , описанных ниже, в том числе байесовские сети, деревья решений, и ближайших соседей, могли бы теоретически, если даны бесконечные данные, время и память, научиться аппроксимировать любую функцию , в том числе любые комбинации математических функций , лучше всего описать весь мир. Эти учащиеся могли бы поэтому, теоретически, получить все возможные знания, рассматривая все возможные гипотезы и сопоставления его с данными. На практике это почти никогда не возможно рассмотреть все возможности, из - за явления « комбинаторных взрыва », где количество времени , необходимое для решения задачи растет экспоненциально. Большая часть исследований ИИ включает в себя выяснение того , как определить и избежать , учитывая широкие просеки о возможностях , которые вряд ли будут плодотворными. Например, при просмотре карты и поиска кратчайшего маршрута вождения из Денвера в Нью - Йорк , на Востоке, один может , в большинстве случаев пропустить глядя на любом пути через Сан - Франциско и другие области , далеко на Запад; Таким образом, ИИ орудуя алгоритм поиска пути , как A * может избежать комбинаторных взрыва , который последует бы , если бы каждый возможный маршрут должен был быть тяжеловесно рассмотрен в своей очереди.

Подход ранних (и легче понять) , чтобы ИИ был символизм (например, формальная логика): «Если иначе здоровый взрослый имеет лихорадку, то у них могут быть грипп ». Второй, более общий подход является байесовский вывод : «Если текущий пациент имеет лихорадку, отрегулировать вероятность они имеют грипп в такой- то образом». Третий основной подход, чрезвычайно популярный в обычных бизнес - приложениях ИИ, является analogizers , таких как SVM и ближайшим сосед : «После изучения записей известных прошлых пациентов , у которых температура, симптомов, возраста и другие факторы , в основном совпадают с текущим пациентом, X% из этих пациентов оказались у гриппа». Четвертый подход труднее интуитивно понять, но вдохновлен тем , как работает механизм мозга: чем искусственная сеть нейронного подход использует искусственные « нейроны » , которые могут узнать, сравнивая себя желаемые результаты и изменений сильных связей между своими внутренними нейронами чтобы «укрепить» связи , которые , казалось , чтобы быть полезным. Эти четыре основных подхода может перекрываться друг с другом и с эволюционными системами; например, нейронные сети могут научиться делать выводы, обобщать и делать аналогии. Некоторые системы явно или неявно использовать несколько таких подходов, наряду с многими другими ИИ и не-AI алгоритмов; лучший подход часто отличается в зависимости от проблемы.

Синяя линия может быть примером переобучения линейной функции из - за случайный шум.

Изучение работы алгоритмов на основе того, что стратегии, алгоритмы и умозаключения , которые хорошо работали в прошлом, вероятно, продолжать работать хорошо в будущем. Эти выводы могут быть очевидны, например, «так как взошло солнце каждое утро в течение последних 10000 дней, он будет , вероятно , поднимется завтра утром , а также». Они могут быть нюансы, такие как «X% из семей имеют географически отдельные виды с цветовыми вариантами, так что есть Y% вероятность того, что нераскрытые черные лебеди существуют». Обучающиеся также работают на основе « бритвы Оккама »: Простейшая теория , которая объясняет данные является правдоподобным. Поэтому, чтобы быть успешным, обучающийся должен быть сконструирован таким образом, что она предпочитает более простые теории сложных теорий, за исключением тех случаев , когда комплексная теория проверенными значительно лучше. Поселившись на плохой, слишком сложной теории gerrymandered уместить все прошлые данные обучения известна как переобучения . Многие системы пытаются снизить переобучения вознаграждая теорию , в соответствии с тем, как хорошо она соответствует данным, но наказание за теорию , в соответствии с тем, как сложная теория. Помимо классического переобучения, учащиеся могут также огорчить путем «обучения неправильного урока». Пример из игрушек является то , что изображение классификатор обучен только на фотографии коричневых лошадей и черных кошек можно заключить , что все коричневые пятна, вероятно, будут лошади. В реальном мире примером является то , что, в отличии от людей, в настоящее время классификаторы изображения не определяет пространственное соотношение между компонентами изображения; вместо этого, они изучают абстрактные узоры пикселей , что люди не обращают внимания, но что линейно коррелируют с изображениями определенных типов реальных объектов. Бледно накладывая такой узор на законные результатах изображения в «состязательном» образе , что система misclassifies.

Самостоятельно вождения автомоейся система может использовать нейронную сеть, чтобы определить, какие части изображения, кажется, соответствуют предыдущим учебным изображениям пешеходов, а затем смоделировать ту область, как медленно двигающиеся, но несколько непредсказуемо прямоугольные призмы, которые следуют избегать.

По сравнению с людьми, существующие AI не хватают несколько функций человеческого « здравого рассуждения »; прежде всего, люди имеют мощные механизмы для рассуждения о « наивной физике » , таких как пространство, время и физических взаимодействия. Это позволяет даже маленьким детям легко сделать выводы , как «Если я качусь эту ручку со стола, он упадет на пол». Люди также имеют мощный механизм « народной психологии » , который помогает им интерпретировать естественно-языковые предложения , такие как «городские члены совета отказались демонстрантов разрешение , потому что они пропагандировали насилие». (Общий ИИ трудность выведения или члены совета демонстранты , являются ли те мнимым быть пропагандирующим насилие.) Отсутствие «общих знаний» означает , что ИИ часто делает различные ошибки , чем люди делают, таким образом, может показаться непонятными. Например, существующие Самостоятельное вождение автомобиля не может рассуждать о месте , ни намерения пешеходов точно так , что люди делают, и вместо этого должны использовать режимы нечеловеческими рассуждений , чтобы избежать несчастных случаев.

Проблемы

Общая цель исследования искусственного интеллекта является создание технологии, которая позволяет компьютерам и машины функционировать в интеллигентной манере. Общая проблема моделирования (или создание) разведки была разбита на подзадачи. Они состоят из определенных признаков или возможностей, которые исследователи ожидают интеллектуальная система для отображения. Эти черты, описанные ниже, получили наибольшее внимание.

Рассуждая, решение проблем

Ранние исследователи разработали алгоритмы , которые имитировали шаг за шагом рассуждения , что люди используют , когда они решают головоломки или делать логические выводы. К концу 1980 - х и 1990 - х годов, исследования А. И. разработал методы борьбы с неопределенной или неполной информации, используя понятия из вероятности и экономики .

Эти алгоритмы оказались недостаточным для решения больших проблем рассуждения, потому что они испытали «комбинаторный взрыв»: они стали экспоненциально медленнее, поскольку проблемы увеличивались. На самом деле, даже люди редко используют дедукции шаг за шагом, что ранние исследования ИИ смог смоделировать. Они решают большинство своих проблем, используя быстрые, интуитивные суждения.

представление знаний

Онтология представляет знания в виде набора понятий в пределах области и связей между этими понятиями.

Представление знаний и инженерные знания играют центральные роль в классические исследования ИИ. Некоторая «экспертные системы» попытка собрать воедино явное знание одержимых специалистов в какой - то узкой области. Кроме того, некоторые проекты пытаются собрать «здравом знания» , как известно, среднему человеку в базу данных , содержащих обширные знания о мире. Среди прочего всеобъемлющего здравом база знаний будет содержать следующие: объекты, свойства, категории и отношения между объектами; ситуации, событие, состояние и время; причины и следствия; знание о знании (то , что мы знаем о том, что другие люди знают); и многие другие, менее хорошо изучены области. Представление « что существует» является онтология : множество объектов, отношений, понятий и свойства формально описано так , что программные агенты могут интерпретировать их. В семантику из них захватываются в качестве описания логических понятий, ролей и отдельных лиц, и , как правило , реализуются в виде классов, свойств и частных лиц в Web - онтологий языка . Наиболее общие онтологий называются верхними онтологии , которые пытаются обеспечить основу для всех других знаний, выступая в качестве посредников между онтологиями , которые охватывают конкретные знания о конкретной предметной области (областях интересов или проблемной области). Такие формальные представления знаний могут быть использованы при индексации контента на основе и поиске, интерпретации сцены, клинической поддержку принятия решений, обнаружение знаний (добыча «интересные» и действенные выводы из больших баз данных), а также в других областях.

Среди наиболее сложных проблем в области представления знаний являются:

По умолчанию рассуждения и проблемы квалификации
Многие из вещей , которые люди знают , принимают форму «рабочих предположений». Например, если птица приходит в разговоре, люди , как правило , картина животное, которое кулак размером, поёт, и мух. Ни одна из этих вещей не верно в отношении всех птиц. Джон Маккарти определил эту проблему в 1969 году как квалификационная проблема: для любых здравых правил , что исследователи ИИ заботятся , чтобы представить, там , как правило, огромное количество исключений. Почти ничего не просто истинное или ложное в том , что требует абстрактной логики. Исследование А.И. исследовал ряд решений этой проблемы.
Широта знаний здравых
Число атомных фактов , что средний человек знает очень большое. Научно - исследовательские проекты , которые пытаются построить полную базу знаний здравых знаний (например, Cyc ) требуют огромного количества трудоемкой онтологической инженерии -они должен быть построен, вручную, одно сложного понятия в то время.
Subsymbolic форма некоторого знания здравого смысла
Многое из того, что люди знают , не представлено как «факты» или «заявление» , что они могли бы выразить вербально. Например, шахматист избежит определенной позиции в шахматах , потому что он «чувствует себя слишком подвержен» или искусствовед взять может один взгляд на статуе и понимает , что это подделка. Они не являются сознательными и суб-символической интуиции или тенденции в человеческом мозге. Знание как это сообщает, поддерживает и обеспечивает контекст для символического, сознательного знания. Как с соответствующей проблемой суб-символического мышления, то есть надежда , что расположенная AI , вычислительный интеллект , или статистический AI будет предоставлять способы для представления такого рода знаний.

планирование

Иерархическая система управления представляет собой форму системы управления , в которой множество устройств и программного обеспечения руководящем расположены в иерархии.

Интеллектуальные агенты должны быть в состоянии ставить перед собой цели и достигать их. Им нужен способ , чтобы визуализировать на будущее представление о состоянии мира и быть в состоянии делать прогнозы о том , что их действия изменят его, и быть в состоянии сделать выбор , которые максимизируют полезность (или «стоимость») из доступных вариантов ,

В классических задачах планирования, агент может предположить, что это единственная система, действующая в мире, что позволяет агенту быть уверен в последствиях своих действий. Однако, если агент не является единственным актером, то это требует, чтобы агент может рассуждать в условиях неопределенности. Это требует агента, который может не только оценить его окружение и делать прогнозы, но и оценить свои прогнозы и адаптируют на основе его оценки.

Планирование Многоагентного использует сотрудничество и конкуренцию многих агентов для достижения данной цели. Эмерджентное поведение таких , как это используется эволюционными алгоритмами и роя интеллектом .

Учусь

Машинное обучение, фундаментальная концепция исследований ИИ с момента создания поля, является изучением компьютерных алгоритмов, которые улучшают автоматически через опыт.

Неконтролируемое обучение является способностью находить закономерности в потоке ввода, не требуя человек , чтобы обозначить входы первыми. Контролируемое обучение включает в себя как классификацию и числовой регресс , который требует человека , чтобы маркировать входные данные первыми. Классификация используются для определения того, к какой категории относится то , что в, после того, как видит ряд примеров вещей из нескольких категорий. Регресс является попыткой произвести функцию , которая описывает взаимосвязь между входами и выходами и предсказывает , каким образом результатов должны меняться по мере изменения входов. Оба классификатор и регрессия учащиеся можно рассматривать как «функцию аппроксиматоры» , пытаясь узнать неизвестную функцию (возможно , неявную); например, спам - классификатор можно рассматривать как обучение функцию , которая сопоставляет из текста по электронной почте к одной из двух категорий, «спам» или «не спам». Вычислительная теория обучения может оценивать ученик по вычислительной сложности , от сложности выборки (сколько данных требуются), или другие понятия оптимизации . В обучении с подкреплением агента вознаграждаются за хорошие ответы и наказывают за плохие. Агент использует эту последовательность поощрений и наказаний , чтобы сформировать стратегию для работы в ее проблемном пространстве.

Обработка естественного языка

Дерево разбора представляет собой синтаксическую структуру предложения в соответствии с некоторой формальной грамматикой .

Обработки естественного языка (NLP) дает машинам способность читать и понимать человеческий язык. Достаточно мощная система обработки естественного языка позволит естественно-языковых интерфейсов пользователя и получение знаний непосредственно от человека-письменных источников, таких как тексты новостных агентств. Некоторые простые приложения обработки естественного языка включают в себя поиск информации , анализ текста , вопрос с ответом и машинный перевод . Многие современные подходы используют слово смежности частот для построения синтаксических представлений текста. «Ключевое слово пятнистость» стратегия поиска популярна и масштабируемые , но немая; поисковый запрос для «собаки» может соответствовать только документам с буквальным словом «собакой» и пропустить документ со словом «пудель». «Лексическая сродства» стратегии используют появление таких слов, как «несчастный случай» , чтобы оценить настроение документа. Современные статистические подходы НЛПА можно объединить все эти стратегии, а также другие, и часто достигают приемлемую точность на странице или пункт уровне, но по- прежнему не хватают смысловое понимание , необходимого для классификации отдельных фраз хорошо. Помимо обычных трудностей , с кодировкой семантических знаний здравых, существующей смысловое NLP иногда весы слишком плохо , чтобы быть жизнеспособными в бизнес - приложениях. Помимо семантической NLP, конечной целью «описательной» НЛП воплотить полное понимание здравого смысла рассуждения.

восприятие

Обнаружение Feature ( на фото: обнаружение края ) помогает AI составить информативные абстрактные структуры из исходных данных.

Восприятие машины является возможностью использовать входной сигнал от датчиков (таких как камеры (видимый спектр или инфракрасного), микрофоны, беспроводные сигналы и активный лидар , гидролокатор, радар и тактильных датчики ) , чтобы вывести аспекты мира. Приложения включают в себя распознавание речи , распознавание лиц и распознавание объектов . Компьютерное зрение является способность анализировать визуальный ввод. Такие входные данные , как правило , неоднозначно; гигантский, пятьдесят-метровые пешеходный далеко может производить тот же пикселы , как близлежащий нормального размера пешеход, требующий AI судить об относительной вероятности и обоснованности различных интерпретаций, например , с помощью его «объектной модели» для оценки что пятьдесят-метровые пешеходы не существует.

Движение и манипуляция

AI широко используется в робототехнике . Расширенные роботизированные манипуляторы и другие промышленные роботы , широко используемые в современных заводах, могут учиться на собственном опыте , как двигаться эффективно , несмотря на наличие трения и зубчатого проскальзывание. Современный мобильный робот, когда дан небольшой, статический и видимую среду, можно легко определить свое местоположение и отобразить его окружение; Однако динамические среды, такие как (в эндоскопии ) внутренней части дыхательного тела пациента, представляют собой большую проблему. Планирование движения является процессом разрушения задачи движения в «примитивы» , такие как отдельные совместные движения. Такое движение часто включает в себя совместимый движение, процесс , в котором движение требует поддержания физического контакта с объектом. Парадокс Моравека обобщающих навыков сенсомоторных низкого уровня , что люди считают самому собой разумеющимся являются, парадоксально, трудно запрограммировать в робот; парадокс назван в честь Ганса Moravec , который заявил в 1988 году , что «это сравнительно легко сделать компьютеры демонстрируют производительность на уровне взрослых на тесты интеллекта или играя в шашки, и трудно или невозможно дать им навыки один-летний , когда его приходит к восприятию и мобильности». Это связано с тем , что, в отличие от шашек, физическая сноровка была непосредственным объектом естественного отбора в течение миллионов лет.

Социальный интеллект

Kismet , робот с рудиментарными социальными навыками

Парадокс Моравека может быть распространен на многие формы социального интеллекта. Распределенная многоагентная координация автономных транспортных средств остается сложной проблемой. Эмоциональные вычисления являются междисциплинарным зонтиком , который включает в себя систему , которые распознают, интерпретируют, процесс, или имитирующие люди воздействуют . Умеренные успехи , связанные с аффективными вычислениями включают в себя текстовую анализ настроений , а совсем недавно, мультимодальный влияет анализ (см мультимодального анализа настроений ), в котором А.И. классифицирует аффекты отображаются видеопленкой субъекта.

В конечном счете, социальные навыки и понимание человеческих эмоций и теории игр были бы ценными для социального агента. Будучи в состоянии предсказать действия других, понимая их мотивы и эмоциональные состояния позволили бы агент принимать более обоснованные решения. Некоторые компьютерные системы имитировать человеческие эмоции и выражение , чтобы казаться более чувствительны к эмоциональной динамике человеческого взаимодействия, или иным образом облегчить взаимодействие человека с компьютером . Кроме того , некоторые виртуальные помощники запрограммированы говорить разговорным или даже подшутить юмористический; это , как правило, дают неопытным пользователям нереальные представления о том , как интеллектуальные существующие компьютерные агенты на самом деле.

Общие сведения

Исторически сложилось, что такие проекты, как основа Cyc знаний (1984-) и массивной японской пятого поколения компьютерных систем инициативе (1982-1992) попытались охватить всю широту человеческого познания. Эти ранние проекты не удалось избежать ограничений неколичественных символических логических моделей и, в ретроспективе, сильно недооценили сложность междоменном AI. В настоящее время, подавляющее большинство нынешних исследователей ИИ работать , а на послушных «узких» AI - приложениях (например, медицинская диагностика или автомобильной навигации). Многие исследователи предсказывают , что такая работа «узкие AI» в различных отдельных областях в конечном итоге будут включены в машину с искусственным общего интеллекта (AGI), сочетающий в себе большинство из узких навыков , упомянутых в этой статье , и в какой - то момент даже превосходит способность человека в большинстве или все эти области. Многие успехи имеют общее, междоменное значение. Одним из примеров громких является то , что DeepMind в 2010s разработал «обобщенный искусственный интеллект» , которые могли бы узнать много разнообразной Atari игры самостоятельно, а затем разработал вариант системы , которая преуспевает в последовательном обучении . Кроме обучения передачи , гипотетические AGI прорывы могут включать в себя развитие рефлексивных архитектур , которые могут участвовать в решении теоретико-metareasoning, и выяснить , как «чавкать вверх» всеобъемлющую базу знаний от всей неструктурированной Web . Некоторые утверждают , что какое - то ( в настоящее время-неоткрытый) концептуально простого, но математически сложного, «Мастер» Алгоритм может привести к AGI. Наконец, несколько «эмерджентные» подходы обращаются к имитации человеческого интеллекта очень тесно, и считают , что антропоморфные черты , как искусственный мозг или моделируемой развитие ребенка может когда - нибудь достичь критической точки , где общий интеллект вырисовывается.

Многие проблемы в этой статье , может также потребоваться общий интеллект, если машины для решения проблем, а также люди. Например, даже конкретные простые задачи, как машинный перевод , требуют , чтобы машина читать и писать на обоих языках ( NLP ), следует рассуждениям автора ( причина ), знать о чем говорят о ( знаниях ), и точно воспроизводит автор оригинал намерение ( социальный интеллект ). Проблема , как машинный перевод считается « AI-полной », потому что все эти проблемы должны быть решены одновременно для того , чтобы достичь производительности машины человеческого уровня.

подходы

Не Там будет не установлена , объединяющая теория или парадигма , которая ведет исследования AI. Исследователи расходятся во мнениях относительно многих вопросов. Некоторые из самых длинных постоянных вопросов , которые остались без ответа таковы: искусственный интеллект должен имитировать естественный интеллект, изучая психологию или нейробиологии ? Или человеческая биология не имеет отношение к исследованию ИИ , как птица биология для авиационной техники ? Может разумное поведение описывается с помощью простых и элегантных принципов (например, логика или оптимизации )? Или это обязательно требует решения большого числа совершенно не связанных между собой проблем?

Кибернетика и моделирование мозга

В 1940 - х и 1950 - х годов, ряд исследователей изучили связь между нейробиологии , теории информации и кибернетике . Некоторые из них построены машины , которые используются электронные сети проявлять элементарную интеллект, такие как У. Грей Уолтер «s черепах и Johns Hopkins Beast . Многие из этих исследователей собрались для встреч телеологического общества в Принстонском университете и Ratio клуба в Англии. К 1960 году этот подход был в основном отказались, хотя его элементы будут возрождены в 1980 - х годах.

символичный

Когда доступ к цифровым компьютерам стало возможным в середине 1950 - х годов исследование ИИ начал исследовать возможность того, что человеческий разум может быть сведена к манипуляции символами. Исследование было сосредоточено в трех учреждениях: Carnegie Mellon University , Stanford и MIT , и , как описано ниже, каждый из которых разработал свой собственный стиль исследований. Джон Хажленд назвал эти символические подходы к ИИ «старому доброму ИИ» или « GOFAI ». В течение 1960 - х годов, символические подходы достигли больших успехов в моделировании на высоком уровне мышления в небольших демонстрационных программ. Подходы , основанные на кибернетике или искусственных нейронных сетей были оставлены или отодвинут на задний план. Исследователи в 1960 - х и 1970 - х годах были убеждены , что символические подходы в конечном итоге удались создать машину с искусственным интеллектом общим и считали этой целью своей области.

Когнитивная моделирование

Экономист Герберт Саймон и Аллен Ньюэлл изучили навыки решения проблем человека и попытались формализовать их, и их работа заложила основы области искусственного интеллекта, а также когнитивный науки , исследование операций и науки управления . Их исследовательская группа использовала результаты психологических экспериментов по разработке программ , которые моделировали методы , которые люди использовали для решения проблем. Эта традиция, с центром в университете Карнеги - Меллона в конечном итоге завершится в развитии парить архитектуры в середине 1980 - х годов.

Логика на основе

В отличие от Саймона и Ньюэлла, Джон Маккарти чувствовал , что машины не нужно имитировать человеческую мысль, но вместо этого он должен попытаться найти сущность абстрактного мышления и решения проблем, независимо от того, используются ли люди одни и те же алгоритмы. Его лаборатория в Стэнфорде ( SAIL ) сосредоточены на использовании формальной логики для решения широкого спектра задач, в том числе представления знаний , планирования и обучения . Логика была также в центре внимания работы в Эдинбургском университете и в других местах в Европе , что привело к разработке языка программирования Пролога и науки логического программирования .

Анти-логика или неряшливо

Исследователи MIT (например, Марвин Мински и Пейперт ) обнаружили , что решение сложных проблем со зрением и естественного языка обработки требуется узкоспециализированных решений, они утверждали , что не было никакого простого и общего принципа (как логика ) , что бы охватить все аспекты разумное поведение. Роджер Schank описал свои «анти-логические» подходы как « потрепанный » (в отличие от « аккуратных » парадигм в CMU и Стэнфорде). Commonsense база знаний (например, Дуг Ленат «s Сус ) является примером„потрепанного“ИИ, так как они должны быть построены вручную, одна сложной концепции , в то время.

Основанное на знаниях

Когда компьютеры с большими воспоминаниями стали доступны в 1970 году, исследователи из всех трех традиций начали строить знания в приложения AI. Эта «революция знания» привела к разработке и внедрению экспертных систем (введенных Фейгенбаум ), первая действительно удачная форма программного обеспечения AI. Ключевой компонент в системе arhitecute для всех экспертных систем является базой знаний, в которой хранится факты и правила , которые иллюстрируют AI. Революция знаний также обусловлена осознанием того, что огромное количество знаний потребовалось бы от многих простых приложений ИИ.

Суб-символического

К 1980 году прогресс в символическом ИИ , казалось, стойло и многие считали , что символические системы никогда не будет в состоянии имитировать все процессы человеческого познания, особенно восприятия , робототехника , обучения и распознавания образов . Ряд исследователей стал смотреть на «суб-символическая» подходов к решению конкретных проблем искусственного интеллекта. Суб-символические методы управления подходить интеллект без конкретных представлений знаний.

Воплощенная интеллект

Это включает в себя воплощенный , расположенный , на основе поведения , и Nouvelle AI . Исследователи из смежной области робототехники , таких как Родни Брукс , отверг символический ИИ и сосредоточены на основных технических проблем , которые позволили бы роботам двигаться и выжить. Их работа возродила несимволические точки зрения ранней кибернетики исследователей 1950 - х лет и вновь использование теории управления в AI. Это совпало с развитием воплощенного ума тезис в смежной области когнитивной науки : идея , что аспекты тела (например, движения, восприятия и визуализации) необходимы для повышения интеллекта.

В робототехнике развития , развития подходы обучения разрабатывается на робот , чтобы накопить репертуары новых навыков путем автономного самоисследования, социальное взаимодействие с человеческими учителями, а также использование механизмов наведения (активное обучением, взросление, двигательные синергиями и т.д.).

Вычислительный интеллект и мягкие вычисления

Интерес к нейронным сетям и « коннекционизма » был возрожден Румельхарт и другими в середине 1980 - х годов. Искусственные нейронные сети являются примером мягких вычислений -Они решения проблем , которые не могут быть решены с полной уверенностью логической, и где приближенное решение часто бывает достаточно. Другие мягкие вычислительные подходы к ИИ включают в себя нечеткие системы , эволюционные вычисления и многие статистические инструменты. Применение мягких вычислений МА изучается коллективно формирующейся дисциплины вычислительного интеллекта .

Статистическое изучение

Большая часть традиционной GOFAI увязли на специальные пластыри для символьных вычислений , которые работали на своих собственных моделях игрушек , но не обобщать реальные результаты. Тем не менее, около 1990 - х годов, исследователи ИИ приняты сложные математические инструменты, такие как скрытые марковские модели (СММ), теории информации и нормативно - байесовской теории принятия решений для сравнения или унифицировать конкурирующих архитектур. Общий математический язык допускается высокий уровень сотрудничества с более установленными полями (например , математика , экономика или исследование операций ). По сравнению с GOFAI, новая «статистические обучения» метода , такими как СММЫ и нейронные сети набирают более высокие уровни точности во многих практических областях , таких как добыча данных , без необходимости приобретения семантического понимания наборов данных. Увеличенные успехи с реальными данными привели к увеличению акцента на сравнение различных подходов в отношении общих данных испытаний , чтобы увидеть , какой подход является наиболее эффективными в более широком контексте , чем это предусмотрено своеобразными моделями игрушечных; Исследование ИИ становится более научным . В настоящее время результаты экспериментов зачастую строго измеримые, а иногда (с трудом) воспроизводимые. Различные статистические методы обучения имеют различные ограничения; например, основные СММЫ не могут моделировать бесконечные возможные комбинации естественного языка. Критики отмечают , что переход от GOFAI статистического обучения часто также отход от объяснима AI . В исследовании AGI, некоторые исследователи предостерегают от чрезмерной зависимости от статистического обучения, и утверждают , что продолжение исследований в GOFAI еще будет необходимо для достижения общего интеллекта.

Интеграция подходов

Интеллектуальная парадигма агента
Интеллектуальный агент представляет собой систему , которая воспринимает свою окружающую среду и предпринимает действия , которые максимизируют свои шансы на успех. Самые простые интеллектуальные агенты являются программами , которые решают конкретные проблемы. Более сложные агенты включают в себя человеческие существа и организации человеческих существ (например, фирмы ). Парадигма позволяет исследователям сравнивать напрямую или даже комбинировать различные подходы к изолированным проблемам, спрашивая , какой агент лучше всего на максимизацию заданной «целевую функции». Агент , который решает конкретная проблему , можно использовать любой подход , который работает, некоторые агенты являются символическими и логичны, некоторые субы-символических искусственные нейронные сети и другие могут использовать новые подходы. Парадигма также дает исследователям общего язык , чтобы общаться с другими полями, такие как теории принятия решений и экономика-которые также используют понятие абстрактных агентов. Построение полного агента требует исследователей для решения реалистичных проблем интеграции; например, потому , что сенсорные системы дают неопределенную информацию о состоянии окружающей среды, система планирования должна быть в состоянии функционировать в условиях неопределенности. Интеллектуальная парадигма агента стала широко принято в течение 1990 - х годов.
Агент архитектуры и когнитивные архитектуры
Исследователи разработали системы для построения интеллектуальных систем из взаимодействующих интеллектуальных агентов в системе многоагентной . Иерархическая система управления обеспечивает мост между суб-символическим ИИ на самом низком уровне , реактивном и традиционный символический ИИ на самом высоком уровне, где смягченные временные ограничения позволяют моделирование планирования и миру. Некоторые когнитивный архитектуры несерийные для решения узкой задачи; другие, такие как Сор , предназначены для имитации человеческого познания и обеспечить понимание общего интеллекта. Современные расширения Сор являются гибридные интеллектуальные системы , которые включают в себя как символические и суб-символические компоненты.

инструменты

AI разработала большое количество инструментов для решения самых сложных задач в области информатики . Некоторые из наиболее общих из этих методов обсуждаются ниже.

Поиск и оптимизация

Многие проблемы ИИ могут быть решены в теории , благодаря интеллектуальному поиску через множество возможных решений: Рассуждение может быть сведены к выполнению поиска. Например, логическое доказательство можно рассматривать как поиск пути , который ведет от помещения к выводам , где каждый шаг является применением в правилах вывода . Планирование алгоритмы поиска с помощью деревьев целей и подцелей, пытаясь найти путь к целевой цели, процесс , называемый средством завершающихся анализа . Робототехника алгоритмы для перемещения конечностей и захвата объектов использует локальный поиск в конфигурационном пространстве . Многие обучающие алгоритмы используют алгоритмы поиска на основе оптимизации .

Простые исчерпывающие поиски редко бывает достаточно для большинства реальных проблем: пространство поиска (количество мест для поиска) быстро растет до астрономических цифр . В результате поиска , который не является слишком медленным или никогда не завершается. Решение для многих задач, является использование « эвристика » или «правила большого пальца» , что первоочередность выбор в пользу тех , которые, скорее всего , чтобы достичь цели и сделать это в более короткий число шагов. В некоторых методик поиска эвристики может также служить полностью устранить некоторые варианты, которые вряд ли приведут к цели ( так называемый « подрезать дерево поиска »). Эвристика поставить программу с «лучшим предположением» по пути , на котором решение лежит. Эвристика ограничить поиск решений в меньший размер выборки.

Совсем другой вид поиска стал известен в 1990 - е годы, на основе математической теории оптимизации . Для многих задач, можно начать поиск с некоторой формой догадки , а затем уточнить догадку постепенно , пока не больше уточнений не могут быть сделаны. Эти алгоритмы могут быть визуализированы , как слепой холм восхождение : мы начинаем поиск в случайной точке на ландшафте, а затем, скачками или шагами, мы продолжаем двигаться нашу догадку в гору, пока мы не достигнем вершины. Другие алгоритмы оптимизации являются моделирование отжига , поиск луча и случайной оптимизации .

Эволюционная вычисление использует форму поиска оптимизации. Например, они могут начать с населением организмов (догадки) , а затем позволить им мутировать и рекомбинировать, выбирая только сильнейший , чтобы выжить в каждое поколение (рафинирование догадки). Классические эволюционные алгоритмы включают в себя генетические алгоритмы , программирование экспрессии генов и генетическое программирование . Кроме того , распределенные процессы поиска могут координировать с помощью роя разведки алгоритмов. Два популярных алгоритмов роя , используемые в поиске являются частицы роя (вдохновленный птицы флокирования ) и оптимизация колонии муравьев (вдохновленный муравьиные тропы ).

логика

Логика используется для представления знаний и решения проблем, но он может быть применена к другим проблемам. Например, satplan алгоритм использует логику для планирования и индуктивного логического программирования является метод обучения .

Несколько различных форм логики используются в исследованиях искусственного интеллекта. Логика высказываний включает в себя функцию истины , такую как «или» и «не». Логика первого порядка добавляет кванторы и предикат , и может выражать факты об объектах, их свойствах, и их отношениях друг с другом. Fuzzy теория множеств присваивает «степень истины» (от 0 до 1) до расплывчатых заявлений , таких как «Алиса стар» (или богатая, или высокая, или голодная) , которые являются слишком лингвистический неточны , чтобы быть полностью истинными или ложными. Нечеткая логика успешно используется в системах управления , чтобы позволить экспертам внести свой вклад неопределенные правила , такие как «если вы близки к станции назначения и движется быстро, увеличить тормозное давление поезда»; эти неясные правила могут быть численно уточнена в системе. Нечеткая логика не может хорошо масштабируется в базах знаний; многие исследователи ИИ подвергают сомнению справедливость цепочки нечеткой логики умозаключения.

По умолчанию логик , немонотонные логики и очертания являются формами логики , разработанными , чтобы помочь с рассуждением по умолчанию и проблемами квалификации . Несколько расширений логики были разработаны для обработки конкретных доменов знаний , такие как: описание логик ; ситуация исчисление , исчисление событий и свободно исчисление (для представления событий и времени); причинное исчисление ; вера в исчисление; и модальные логики .

В целом, qualitiative символическая логика является хрупким и плохо масштабируется в присутствии шума или другой неопределенности. Исключения из правил являются многочисленными, и это трудно логические системы функционировать в присутствии противоречивых правил.

Вероятностные методы неопределенных рассуждений

Expectation Максимизация кластеризация Old Faithful данных извержение начинается со случайного догадка , но затем успешно сходится на точной кластеризации двух физически различных режимов извержения.

Многие проблемы искусственного интеллекта (в рассуждениях, планировании, обучении, восприятии и робототехника) требуют агента для работы с неполной или неточной информацией. Исследователи ИИ разработали целый ряд мощных инструментов для решения этих проблем с помощью методов вероятностной теории и экономики.

Байесовской сети являются очень общий инструмент , который может быть использован для большого числа задач: рассуждения ( с использованием байесовского вывода алгоритма), обучение ( с использованием алгоритма ожидания максимизации ), планирование ( с использованием решения сетей ) и восприятие ( с использованием динамических сетей Байеса ). Вероятностные алгоритмы также могут быть использованы для фильтрации, прогнозирования, сглаживание и найти объяснения для потоков данных, помогая восприятия системы для анализа процессов , которые происходят в течение долгого времени (например, скрытые модели Маркова или фильтры Калмана ). По сравнению с символической логикой, формальный байесовский вывод вычислительно дорого. Для вывода быть послушным, большинство наблюдений должны быть условно независимы друг от друга. Сложные графы с алмазами или другими «петлей» (неориентированные циклы ) могут потребовать сложный метод , таких как цепь Маркова Монта - Карло , который распространяется ансамблем случайных пешеходов по всему байесовской сети и пытается сходятся к оценке условных вероятностей. Байесовская сеть используется на Xbox Живого , чтобы оценить и матч игрок; выигрыши и потери «доказательство» того, насколько хорошо игрок. AdSense использует байесовскую сеть с более чем 300 миллионов ребер , чтобы узнать , какие объявления служить.

Ключевым понятием из экономической науки является « полезность »: мера того , насколько ценно то , что является интеллектуальным агентом. Точные математические инструменты были разработаны , которые анализируют , как агент может сделать выбор и план, используя теорию принятия решений , анализ решений и теорию информации стоимости . Эти инструменты включают в себя такие модели, как марковские процессы принятия решений , динамические решения сетей , теории игр и конструирование механизмов .

Классификаторы и статистические методы обучения

Простейшие приложения AI можно разделить на два типа: классификаторы ( «если блестящие затем алмаз») и контроллеры ( «если блестящие затем подобрать»). Контроллеры, тем не менее, также классифицируют условия перед умозаключением действий, и , следовательно , классификация образует центральную часть многих систем искусственного интеллекта. Классификаторы являются функции, использующие сопоставление с образцом , чтобы определить наиболее близкое. Они могут быть настроены в соответствии с примерами, что делает их очень привлекательными для использования в AI. Эти примеры известны как наблюдения или узоры. В подконтрольном обучении, каждый шаблон принадлежит к определенному классу предопределенному. Класс можно рассматривать как решение , которое должно быть сделано. Все наблюдения в сочетании с их классом меток известны как набор данных. Когда новое наблюдение получено, что наблюдение классифицируется на основе предыдущего опыта.

Классификатор может обучаться различными способами; Есть много статистических и машинного обучения подходы. Дерево решений является , пожалуй, наиболее широко используемым алгоритмом машинного обучения. Другие широко используемые классификаторы являются нейронные сети , к ближайшему соседу алгоритм , ядерные методы , такие как поддержка векторной машины (SVM), гауссовой модели смеси , и чрезвычайно популярной наивного байесовского классификатора . Производительность классификатора в значительной степени зависит от характеристик данных , которые должны быть классифицирована, такими как размер набора данных, распределение образцов по классам, размерность, и уровень шума. Модель на основе классификаторов работают хорошо , если предполагаемая модель является чрезвычайно хорошо подходит для фактических данных. В противном случае , если соответствующий модель не доступна, и если точность (а не скорость или масштабируемость) является единственной заботой, Распространено мнение, что дискриминационные классификаторы (особенно SVM) имеют тенденцию быть более точным , чем модели на основе классификаторов , таких как «наивного байесовского» в большинстве практических наборов данных.

Искусственные нейронные сети

Нейронная сеть является взаимосвязанной группой узлов, сродни обширной сети нейронов в человеческом мозге .

Нейронные сети или нейронные сети, вдохновлялись архитектурой нейронов в человеческом мозге. Простой «нейрон» N принимает входные данные от множества других нейронов, каждый из которых, при активации (или «выстрелили»), поданных взвешенный «голосовать» за или против того нейрона N должен сам по себе активировать. Обучение требует алгоритма для корректировки этих весов на основе обучающих данных; один простой алгоритм (названный « огнь вместе, провода вместе ») заключается в увеличении веса между двумя связанными нейронами , когда активация одного вызывает успешную активацию другие. Чистые формы «понятие», которые распространяются среди подсети общих нейронов , которые , как правило, стрелять вместе; понятие означает «нога» может быть связана с подсетью , что означает «ногу» , которая включает в себя звук для «ноги». Нейроны имеют непрерывный спектр активации; Кроме того, нейроны могут обрабатывать входы в нелинейно , а не взвешивании несложных голосов. Современные нейронные сети могут узнать как непрерывные функции , и, как ни удивительно, цифровые логические операции. Первые успехи нейронных сетей включены прогнозирования фондового рынка и (в 1995 году) в основном самостоятельное вождение автомобиля. В 2010s, достижение в области нейронных сетей с использованием глубокого обучения упорного ИИ в широкое общественное сознание и способствовал огромной повышающей передаче в корпоративных расходах AI; например, А. И. связанных с M & A в 2017 году была более чем в 25 раз больше, чем в 2015 году.

Исследование не-обучения искусственных нейронных сетей началось в десять лет до того , как область исследований ИИ была основана в работе Уолтер Питтс и Уоррен McCullouch . Розенблатт изобрел персептрон , обучающую сеть с одним слоем, похожий на старую концепцию линейной регрессии . Пионеры также включают Ивахненко~d , Кохонен , Стивен Гроссберг , Кунихико~d Фукусимы , Кристоф фон дер Malsburg, Дэвид Willshaw, Shun-Ichi Амарь , Бернард Уидроу , Хопфилд , Эдуардо Р. Кайаниэлло~d и другие.

Основные категории сетей являются ациклическими или прямой подачей нейронных сетей (где сигнал проходит только в одном направлении) и рекуррентные нейронные сети (которые позволяют обратную связи и краткосрочные воспоминания о предыдущих входных событиях). Среди наиболее популярных Feedforward сетей персептроны , многослойный персептрон и радиальные базисные сети . Нейронные сети могут быть применены к проблеме интеллектуального управления (для робототехники) или обучения , с использованием таких методов , как обучение Хебба ( «огонь вместе, провода вместе»), GMDH или конкурентоспособны обучения .

Сегодня, нейронные сети часто обучаются по обратному распространению алгоритма, который был примерно с 1970 года в качестве обратного режима автоматического дифференцирования опубликованного Сеппо Linnainmaa , и были введены в нейронные сети с помощью Пола Werbos .

Иерархическая временная память представляет собой подход , который моделирует некоторые из структурных и алгоритмических свойств неокортекса .

Подводя итог, большинство нейронных сети используют некоторые формы градиентного спуска на руку созданной топологии нейронной. Тем не менее, некоторые исследовательские группы, такие как Uber , утверждают , что простая нейроэволюция мутировать новые нейронные сетевые топологии и вес может быть конкурентоспособным со сложными подходами градиентного спуска. Одним из преимуществ нейроэволюцией является то , что может быть менее склонны увязнуть в «тупиков».

Deep нейронных сетей прямого распространения

Глубокое изучение является любой искусственной нейронной сетью , которая может узнать длинную цепочку причинно - следственных связей. Например, упреждение сеть с шестью скрытыми слоями может выучить семь-причинную связь цепь (шесть скрытых слоев + выходной слой) и имеет «путь кредитного назначения» (CAP) глубина семь. Многие глубокие системы обучения должны быть в состоянии узнать цепи десять или более причинно - следственных связей в длину. Глубокое изучение превратило многие важные подполя искусственного интеллекта, в том числе компьютерного зрения , распознавания речи , обработки естественного языка и других.

Согласно одному обзору, выражение «Deep Learning» был введен в Machine Learning сообщества Рина Дечтер в 1986 году и набирает обороты после того, как Игорь Айзенберг и его коллеги ввели его в искусственных нейронных сетей в 2000 году Первые функциональные Глубокие сети обучения были опубликованы Алексей Григорьевич Ивахненко и В.Г. Lapa в 1965. Эти сети обучаются один слой за один раз. 1971 статьи Ивахненко описывает изучение глубокого упреждения многослойного персептрона с восьмью слоями, уже гораздо глубже , чем многие более поздних сети. В 2006 годе публикация Джеффри Хинтон и Руслан Салахутдинов ввела еще один способ предварительной подготовки Многослойных прямые распространения нейронных сетей (FNNs) один слоя за один раз, рассматривая каждый слой в своей очереди , как неконтролируемая запретной машина Больцмана , а затем с помощью контролируемого обратного распространения для тонкая настройка. Похоже на мелководные искусственные нейронные сети, глубокие нейронные сети могут моделировать сложные нелинейные отношения. За последние несколько лет прогресс в обеих алгоритмах машинного обучения и компьютерной технике привела к более эффективным методам для подготовки глубоких нейронных сетей , которые содержат много слоев нелинейных скрытых узлов и очень большого выходной слоя.

Глубокое изучение часто использует сверточные нейронные сети (CNNs), чье происхождение можно проследить до Неокогнитрона введенного Кунихико Фукусиме в 1980 году В 1989 годе Лекун и коллеги применяются обратное распространение к такой архитектуре. В начале 2000 - х годов, в промышленном применении CNNs уже обработали по оценкам 10% до 20% от всех проверок , написанных в США. Начиная с 2011 года, быстрые реализации CNNs на чипах выиграл много соревнований распознавания визуальных шаблонов.

CNNs с 12 сверточных слоев были использованы в сочетании с армирующей обучения по Deepmind в « AlphaGo Ли», программы , которые избили топ - Go чемпионом в 2016 году.

Глубокие рекуррентные нейронные сети

В самом начале глубокое изучение было также применено к последовательности обучения с повторяющимися нейронными сетями (RNNs) , которые в теории Тьюринга и может запускать произвольные программы для обработки произвольных последовательностей входов. Глубина в RNN не ограничено и зависит от длины его входной последовательности; Таким образом, РНН является примером глубокого изучения. RNNs может быть обучен градиентным спуском , но страдает от исчезающей градиенты проблемы . В 1992 году было показано , что бесконтрольное предварительной подготовки стека рецидивирующих нейронных сетей может ускорить последующее контролируемое изучение глубоких последовательных проблем.

Многие исследователи в настоящее время используют варианты глубокого изучение рецидивирующий NN называется длинная кратковременная память сети (LSTM) , опубликованная Hochreiter & Шмидхубером в 1997 году LSTM часто обучаются Коннекшионистской височная классификация (ККА). В Google, Microsoft и Baidu этот подход революцию распознавания речи . Например, в 2015 году, распознавания речи Google, произошел резкий скачок производительности на 49% через КТК обученной LSTM, которая теперь доступна через Google Voice миллиардами пользователей смартфонов. Google также используется LSTM для улучшения машинного перевода, язык моделирования и многоязычный язык обработки. LSTM в сочетании с CNNs также улучшена автоматическое субтитров изображения и множество других приложений.

Оценка прогресса

AI, как электричество или паровой двигатель, это технология общего назначения. Там нет единого мнения о том , как охарактеризовать , какие задачи AI стремится преуспеть в. Хотя такие проекты, как AlphaZero удалось генерировать свои собственные знания с нуля, многие другие проекты машинного обучения требуют больших учебных наборов данных. Исследователь Эндрю Нг предположила, как «весьма несовершенное эмпирическое правило», что «почти все , что типичный человек может делать с менее чем за одну секундой ментальной мысли, мы можем , вероятно , сейчас или в ближайшем будущем автоматизировать с помощью искусственного интеллекта.» Парадокс Моравека предположить , что ИИ отстает человек во многих задачах , что человеческий мозг специально эволюционировал , чтобы хорошо выступить.

Игры обеспечивают хорошо разрекламированный ориентир для оценки темпов прогресса. AlphaGo около 2016 принес эру классических настольной игры показателей к концу. Игры несовершенного знания обеспечивают новые вызовы ИИ в области теории игр . E-спорт , такие как StarCraft продолжают предоставлять дополнительные государственные ориентиры. Есть много конкурсов и призов, такие как Imagenet вызов , содействовать проведению научных исследований в области искусственного интеллекта. Наиболее распространенные области конкуренций включают общий интеллект машины, диалоговое поведение, поиск данные, роботизированные машины , и робот футбол, а также обычные игры.

«Имитация игра» (толкование 1950 теста Тьюринга , проверяющий , может ли компьютер имитировать человек) в настоящее время является слишком ПОЛЕЗНОЙ быть значимым ориентиром. Производная теста Тьюринга является полностью автоматизированный Public Turing тест сказать компьютеров и людей ( CAPTCHA , ). Как следует из названия, это помогает определить , что пользователь является конкретным человеком , а не компьютер , выдавая себя за человеком. В отличие от стандартного теста Тьюринга, расшифрованы под управлением машины и ориентированные на человека , а не администрируется человеком и ориентированы на машине. Компьютер запрашивает пользователь , чтобы завершить простой тест затем генерирует класс для этого теста. Компьютеры не в состоянии решить эту проблему, поэтому правильные решения считаются результатом человека , берущего тест. Общий вид капчи тест , который требует типирование искаженных букв, цифр или символов , которые появляются в образе расшифровке с помощью компьютера.

Предлагаемые тесты «универсальный интеллект» цель сравнить , насколько хорошо машины, люди и даже животные нечеловеческие выполнять на проблемные наборы , которые являются родовыми , как это возможно. На крайнем случае , тестовый набор может содержать все возможные проблемы, взвешенных по сложности Колмогорова ; К сожалению, эти проблемы устанавливает , как правило, доминируют обедневшие модели сопоставления упражнений , где настроенный ИИ может легко превысить уровень работоспособности человека.

Приложения

Автоматизированный онлайн помощник предоставления обслуживания клиентов на веб - странице - один из многих очень примитивных приложений искусственного интеллекта

AI имеет отношение к любой интеллектуальной задаче. Современные искусственные методы разведки широко распространены и слишком много , чтобы перечислить здесь. Не часто, когда техник достигает господствующее использование, он больше не считается искусственным интеллектом; это явление описывается как эффект AI .

Примеры Громких ИИ включают в себя автономные транспортные средства (например, беспилотные летательные аппараты и самостоятельного вождения автомобилей ), медицинской диагностики, создания искусства (например, поэзию), доказывающих математические теоремы, играть в игры (например, шахматы или Go), поисковыми системами (например, поиск Google ), онлайн - помощников (например, Siri ), распознавание изображений на фотографиях, фильтрации спама, прогнозирования задержки рейсов, прогнозирование судебных решений и нацеливание рекламы в Интернете.

С социальной сетью обгона телевидения в качестве источника новостей для молодежи и новостных организаций все больше зависят от социальных медиа-платформ для создания распределения, крупные издатели теперь используют технологию искусственного интеллекта (ИИ), чтобы более эффективно размещать рассказы и генерировать большие объемы трафика.

Здравоохранение

Пациент стороны хирургическая рука хирургической системы Da Vinci

МА применяется к высокой проблеме стоимости лекарственных вопросов-где результаты предположили, что ИИ может сэкономить 16 млрд $. В 2016 году новаторская исследования в Калифорнии обнаружили, что математическая формула разработана с помощью искусственного интеллекта правильно определил точную дозу иммунодепрессанты, чтобы дать пациентам органов.

Рентген руки, с автоматическим расчетом костного возраста компьютерным программным обеспечением

Искусственный интеллект врываясь в отрасли здравоохранения, помогая врачам. По данным Bloomberg , технологии, Microsoft разработала искусственный интеллект , чтобы помочь врачам найти правильные методы лечения рака. Существует большое количество исследований и лекарств , разработанное в связи с раком. Более подробно, есть более 800 лекарственных средств и вакцин для лечения рака. Это отрицательно влияет на врач, потому что есть слишком много вариантов , чтобы выбрать из, что делает его более трудным выбрать правильные лекарства для больных. Microsoft работает над проектом по разработке машины под названием «Ганновер». Его цель состоит в том, чтобы запомнить все документы , необходимые для рака и помочь предсказать , какие комбинации препаратов будут наиболее эффективными для каждого пациента. Один проект , который в настоящее время работает в данный момент борется миелоидной лейкемии , фатальной рака , где лечение в течение десятилетий не улучшилось. Другое исследование , как сообщается, обнаружили , что искусственный интеллект был столь же хорош , как врачей , обучавшихся в выявлении рака кожи. Другое исследование с использованием искусственного интеллекта , чтобы попытаться контролировать несколько пациентов с высоким риском, и это делается путем опроса каждого пациент многочисленных вопросов на основе данных , полученных от живого врача взаимодействия пациента.

По данным CNN , недавнее исследование хирургов в Национальном детском медицинском центре в Вашингтоне успешно продемонстрировал операцию с автономным роботом. Команда контролировала робот , пока он оперировал мягкую ткань, сшивая кишечник свиньи во время открытой хирургии, и делают так лучше , чем человеческий хирург, команда востребована. IBM создала свой собственный искусственный интеллект компьютер, IBM Watson , который взбитый человеческий интеллект (на некоторых уровнях). Уотсон не только выиграл в телеигры Jeopardy! против бывших чемпионов, но был объявлен героем после того, как успешно диагностировать женщину , которая страдает от лейкемии.

автомобильный

Достижения в области искусственного интеллекта способствовали росту автомобильной промышленности путем создания и развития самостоятельного вождения транспортных средств. По состоянию на 2016 год , существует более 30 компаний , использующих искусственный интеллект в создание машинистов машин . Несколько компаний , занимающихся с ИИ включают Тесла , Google и Apple , .

Многие компоненты способствуют функционированию самостоятельного вождения автомобилей. Эти транспортные средства включают такие системы, как торможение, изменение полосы движения, предотвращение столкновений, навигацию и картографию. Вместе эти системы, а также компьютеры высокой производительности, интегрированы в один сложный автомобиль.

Последние разработки в области автономных автомобилей приняли новшество самостоятельного вождения грузовиков возможных, хотя они все еще находятся в стадии тестирования. Правительство Великобритании приняло законодательство, чтобы начать тестирование самостоятельного вождения взводов грузовиков в 2018. Самостоятельное вождение взводов грузовиков являются парк самостоятельного вождения грузовиков следуя примеру одного не-самостоятельного вождения грузовика, поэтому взводы грузовик не пока полностью автономна. Между тем, Daimler, немецкая автомобильная корпорация, тестирует вдохновение Freightliner, который полуавтономная грузовик, который будет использоваться только на шоссе.

Одним из основных факторов, который влияет на способность для водителя меньше автомобиля к функции отображения. В общем, автомобиль будет предварительно запрограммированная карта области гонит. Эта карта будет включать в себя данные о приближении уличного света и бордюры высоты для того, чтобы транспортного средства, чтобы быть в курсе его окрестностей. Тем не менее, Google работает над алгоритмом с целью устранения необходимости заранее запрограммированных карт и вместо создания устройства, которое было бы в состоянии приспособиться к различным новым условиям. Некоторые Беспилотные автомобили не оборудованы рулевые колеса или педали тормоза, так что также были исследования, направленные на создание алгоритма, способные поддерживать безопасные условия для пассажиров в транспортном средстве пути повышения скорости и условий вождения.

Другим фактором, который влияет на способность для водителя меньше автомобиля является безопасность пассажира. Для того, чтобы сделать водитель менее автомобиль, инженеры должны запрограммировать его обрабатывать ситуации высокого риска. Такие ситуации могут включать в себя лобовое столкновение с пешеходами. Основная цель автомобиля должна принять решение, что позволит избежать попадания пешеходов и сохранения пассажиров в автомобиле. Но есть возможность, что автомобиль будет необходимо принять решение, которое бы поставить кого-то в опасности. Другими словами, автомобиль должен был бы решить, чтобы спасти пешеходов или пассажиров. Программирование автомобиля в таких ситуациях имеет решающее значение для успешного водителя меньше автомобиля.

Финансы и экономика

Финансовые учреждения уже давно используют искусственные нейронные сети системы для обнаружения зарядов или претензий за пределами нормы, маркировки их для человеческого исследования. Использование ИИ в банковской сфере может быть прослежено до 1987 года , когда Security Pacific National Bank в США мошенник Целевого Предотвращения усилия-наладочный для противодействия несанкционированного использования дебетовых карт. Такие программы , как Kasisto и Moneystream используют искусственный интеллект в области финансовых услуг.

Банки используют системы искусственного интеллекта сегодня организовать работу, поддерживать ведение бухгалтерского учета, вкладывать средства в акции, и управлять свойствами. ИИ может реагировать на изменения на ночь или когда бизнес не происходит. В августе 2001 года роботы бить людей в моделируемой торговой финансовой конкуренции. AI также уменьшил мошенничества и финансовые преступления путем мониторинга поведенческих моделей пользователей для любых патологических изменений или аномалий.

Использование машин AI на рынке в таких приложениях, как интернет - трейдинг и принятие решения изменило основные экономические теории. Например, на покупку AI и продажа платформа изменили закон спроса и предложения в том , что теперь можно легко оценить индивидуализированный спрос и кривые спроса и , таким образом , индивидуализированные цены. Кроме того, машины AI уменьшить асимметрию информации на рынке и , таким образом , делая более эффективных рынков при одновременном снижении объема торгов. Кроме того, AI на рынках ограничивает последствия поведения на рынках снова делает более эффективными рынками. Другие теории , где ИИ оказавшие влияние включают в рациональный выбор , рациональных ожиданий , теория игр , Льюис поворотный момент , оптимизации портфеля и контрфактуальной мышления .

Видео игры

В видеоиграх, искусственный интеллект обычно используются для создания динамического целенаправленного поведения неигровых персонажей (НПС). Кроме того, хорошо понятны методы искусственного интеллекта обычно используются для поиска пути . Некоторые исследователи считают NPC AI в играх , чтобы быть «решена проблема» для большинства производственных задач. Игры с более атипичным AI включают директор ИИ Left 4 Dead (2008) и neuroevolutionary подготовку взводов в Supreme Commander 2 (2010).

военный

Во всем мире ежегодные военные расходы на робототехнике выросла с $ 5,1 млрд долларов США в 2010 году до $ 7,5 млрд долларов США в 2015 году военных беспилотных летательных аппаратов , способных автономных действий широко считается полезным активом. В 2017 году, Владимир Путин заявил , что «Тот , кто становится лидером в области искусственного интеллекта () станет властелином мира». Многие исследователи искусственного интеллекта стремятся дистанцироваться от военного применения ИИ.

аудит

Для финансовой отчетности аудита, AI делает непрерывный аудит возможно. инструменты ИИ могли бы сразу проанализировать множество наборов различной информации. Потенциальная выгода будет риск общего аудита будет снижена, уровень уверенности будет увеличен и продолжительность времени аудита будет сокращена.

реклама

Можно использовать AI , чтобы предсказать или обобщать поведение клиентов от своих цифровых отпечатков , чтобы нацелить их с персональными поощрениями или построить персона клиентов автоматически. Документально случай сообщает , что онлайновые игорные компании используют искусственный интеллект , чтобы улучшить нацеливание клиентов.

Кроме того, применение Personality вычислительных моделей ИИ может способствовать снижению стоимости рекламных кампаний пути добавления психологического таргетинга на более традиционный социально - демографический или поведенческий таргетинг.

Изобразительное искусство

Искусственный интеллект вдохновил многочисленные творческие приложения, включая его использование для получения визуального искусства. Выставка «Thinking Machines: Искусство и дизайн в компьютерном веке, 1959-1989» в MoMA обеспечивает хороший обзор исторических применений искусственного интеллекта для искусства, архитектуры и дизайна. Последние выставки, демонстрирующие использование искусственного интеллекта для создания искусства включают в Google спонсируемых пользу и аукцион в Фонде Gray Area в Сан-Франциско, где художники экспериментировали с алгоритмом deepdream и выставки «нечеловеческой: Искусство в эпоху ИИ», который принял место в Лос-Анджелесе и Франкфурте осенью 2017 г. весной 2018 года, Ассоциация вычислительной техники посвящен специальный выпуск журнала на тему компьютеров и искусства, подчеркивающие роль машинного обучения в искусстве.

Философия и этика

Есть три философские вопросы, связанные с ИИ:

  1. Является ли искусственный интеллект вообще возможно? Может ли машина решить любую проблему , которую человек может решить , используя интеллект? Или есть жесткие ограничения на то , что машина может достичь?
  2. Являются ли интеллектуальные машины опасны? Как мы можем гарантировать, что машины ведут себя этично и что они используются с этической точки зрения?
  3. Может ли машина иметь разум , сознание и психические состояния в точно таком же смысле , что люди делают? Может ли машина быть разумной , и , следовательно , заслуживает определенных прав? Может ли машина намеренно причинить вред?

Пределы искусственного общего интеллекта

Может ли машина быть умной? Можно ли «думать»?

«Вежливые конвенции» Алана Тьюринга
Нам не нужно решать , если машина может «думать»; нам нужно только решить , если машина может действовать как разумно , как человеческое существо. Такой подход к философским проблемам , связанным с искусственным интеллектом формирует основу теста Тьюринга .
Предложение Дартмут
«Каждый аспект обучения или любой другой функции интеллекта может быть так точно описано, что машина может быть сделано, чтобы имитировать его.» Эта гипотеза была напечатана в предложении для Дартмут Конференции 1956 года, и представляет позицию большинства исследователей, работающих ИИ.
Ньюэлла и Саймона гипотеза физическая система символов
«Физическая система символа имеет необходимые и достаточные средства общего интеллектуального действия.» Ньюэлл и Саймон утверждают , что интеллект состоит из формальных операций над символами. Хьюберт Дрейфус утверждал , что, наоборот, человек опыт зависит от бессознательного инстинкта , а не сознательная манипуляции символов и иметь «чувство» для ситуации , а не явного символического знания. (См критику Дрейфуса ИИ ) .
геделевые аргументы
Гедель самого Джон Лукас (в 1961 году) и Роджер Пенроуз (в более детальном аргументу с 1989 годом) сделали весьма технические аргументы , что человеческие математики могут постоянно видеть правду о своем собственном «заявлении гёделевского» и , следовательно , имеют вычислительные способности кроме того механического машины Тьюринга. Тем не менее, современный консенсус в научно-математическом сообществе в том , что эти «аргументы» геделевые неудачу.
Искусственный мозг аргумент
Мозг может быть смоделированы машинами и потому , что мозг умные, смоделированные мозги должны быть умными; Таким образом , машины могут быть разумными. Ханс Moravec , Рэй Курцвейл и другие утверждали , что это технологически возможно скопировать мозг непосредственно в аппаратное и программное обеспечение и что такое моделирование будет по существу идентичен оригиналу.
Эффект AI
Машины уже умные, но наблюдатели не признают его. Когда Deep Blue бить Гарри Каспарова в шахматы, машина вела себя разумно. Тем не менее, зрители обычно обесценить поведение программы искусственного интеллекта, утверждая , что это не «реальный» интеллект после того, как все; Таким образом , «реальный» интеллект независимо от разумного поведения люди могут сделать это машина до сих пор не может. Это известно как эффект AI: «ИИ независимо не было сделано.»

Потенциальный вред

Широкое использование искусственного интеллекта может иметь непредсказуемые последствия , которые являются опасными или нежелательными. Ученые из будущего Института жизни , в частности, описаны некоторые краткосрочные цели исследования , чтобы увидеть , как ИИ влияет на экономику, законы и этические нормы, которые участвуют с ИИ и как свести к минимуму риски безопасности AI. В долгосрочной перспективе, ученые предложили продолжить оптимизацию функции при минимизации возможных рисков безопасности , которые приходят вместе с новыми технологиями.

Экзистенциальный риск

Физик Стивен Хокинг , Microsoft основатель Билл Гейтс , и SpaceX основатель Элон Маск выразили озабоченность по поводу возможности того, что ИИ может развиться до такой степени , что люди не могли контролировать его, с Хокинг теоретизирования , что это может « означать конец человеческой расы ».

Развитие полного искусственного интеллекта может означать конец человеческой расы. После того, как люди развиваются искусственный интеллект, он будет взлетать самостоятельно и редизайн себя на все возрастающей скоростью. Люди, которые ограничены медленной биологической эволюция, не могут конкурировать и будут заменены.

В своей книге суперинтеллекте , Ник Бостром дает аргумент , что искусственный интеллект будет представлять угрозу для человечества. Он утверждает , что достаточно умный ИИ, если он выбирает действия , основанные на достижение какой - то цели, будет проявлять сходящееся поведение , такие как приобретение ресурсов или защитить себя от закрываются. Если цели этого ИИ не отражают humanity's-примера является AI сказал , чтобы вычислить , как много цифр числа пи , как это возможно, это может нанести вред человечеству, чтобы приобрести больше ресурсов или предотвратить себя от закрываются, в конечном счете , чтобы лучше достичь своей цели.

Беспокойство по поводу риска из искусственного интеллекта привело к возникновению ряда пожертвований громких и инвестициям. Группа известных технологических титанов , включая Питера Тиля , Amazon Web Services и мускус совершили $ 1 млрд в OpenAI , некоммерческой компании , направленной на отстаивая ответственного развития ИИ. Мнение специалистов в области искусственного интеллекта смешивает с значительными фракциями и заинтересованными и равнодушных риском от возможного нечеловеческий-способного AI. В январе 2015 года, Элон Маск пожертвовал десять миллионов долларов в будущий Институте жизни финансировать научные исследования на понимание ИИ принятия решений. Целью института является «расти мудрости , с которой мы управляем» растущей мощью технологии. Маск также фонды компаний , разрабатывающие искусственный интеллект , такие как Google DeepMind и субсидиарная «просто держать глаза на то , что происходит с искусственным интеллектом. Я думаю , что есть потенциально опасный результат там.»

Для этой опасности быть реализован, гипотетический ИИ должен пересилить или перехитрить все человечество, что меньшинство экспертов утверждают, возможность достаточно далеко в будущем, чтобы не быть стоит исследовать. Другие контраргументы вращаются вокруг людей является либо внутренне или конвергентно ценными с точки зрения искусственного интеллекта.

Девальвация человечества

Вейценбаум писал , что приложения ИИ не могут, по определению, успешно моделировать подлинное человеческое сопереживание и что использование технологии ИИ в таких областях, как обслуживание клиентов или психотерапии глубоко заблуждается. Weizenbaum также смущало , что исследователи ИИ (и некоторые философы) были готовы смотреть на человеческий разум , как не более чем компьютерная программа (позиция теперь известна как computationalism ). Чтобы Weizenbaum эти точки позволяют предположить , что исследования AI обесценивает человеческую жизнь.

Снижение спроса на труд человека

Отношения между автоматизацией и занятостью усложняются. Хотя автоматизация устраняет старые рабочие места, но и создает новые рабочие места за счет микро-экономических и макро-экономических последствий. В отличие от предыдущих волн автоматизации, много рабочих мест среднего класса могут быть устранены с помощью искусственного интеллекта; Экономист утверждает , что «беспокойство , что ИИ может сделать для белых воротничков , что паросиловой сделал для синих воротничков из них во время Промышленной революции», «стоит принимать всерьез». Субъективные оценки риска варьироваться в широких пределах; например, Майкл Осборн и Карл Бенедикту Frey оценивают 47% рабочих мест в США находятся на «высокого риска» потенциальной автоматизации, в то время как в докладе ОЭСР классифицирует только 9% рабочих мест в США , как «высокого риска». Работа в экстремальном диапазоне риска от параюристов быстрого питания поваров, в то время как спрос на работе, скорее всего, увеличатся на профессию по уходу , связанные , начиная от личных медицинского духовенству. Автор Мартин Форд и другие идут дальше и утверждают , что большое количество рабочих мест рутина, повторяющиеся и (с ИИ) предсказуемое; Форд предупреждает , что эти рабочие места могут быть автоматизированы в ближайшие пару десятилетий, и что многие из новых рабочих мест не может быть «доступными для людей со средним уровнем способности», даже при переподготовке. Экономисты отмечают, что в прошлом технологии имеет тенденцию к увеличению , а не уменьшить общую занятость, но признают , что «мы находимся в неизведанной территории» с ИИ.

Автономные оружие

В настоящее время, 50+ страны исследуют на поле боя роботов, в том числе США, Китая, России и Великобритании. Многие люди обеспокоены риском от Сверхразумного AI также хотят ограничить использование искусственных солдат и беспилотных летательных аппаратов.

Этические машины

Машины с интеллектом имеют потенциал , чтобы использовать свой интеллект , чтобы предотвратить ущерб и минимизировать риски; они могут иметь возможность использовать этические рассуждения лучше выбирать свои действия в мире. Исследования в этой области включают в себя этику машины , искусственные моральные агент и дружественный ИИ .

Искусственные моральные агенты

Уэнделл Уоллы ввели понятие искусственных моральных агентов (AMA) в своей книге Моральных Машин для Уоллов, АМС стал частью исследовательского ландшафта искусственного интеллекта , как руководствуясь своими двумя центральными вопросами , которые он определяет как «Желает Человечество Компьютеры Создание Морали Решения»и„Может (Ro) боты действительно быть Мораль“. Для Валлах вопрос не сосредоточилось на вопросе о том может продемонстрировать машины эквивалент морального поведения в отличие от ограничений , которые общество может размещать на развитие АМС.

Машинная этика

Поле машинна этика связанно с приданием машин этических принципов, или процедурой обнаружения способа решения этических дилемм, они могут столкнуться, что позволяет им функционировать в этически ответственном образе через свои собственные этические решения. Месторождение было очерчено в AAAI Fall 2005 Симпозиума по машинной этике: «Прошлые исследования, касающиеся взаимосвязи между технологией и этиками в значительной степени сосредоточены на ответственном и безответственное использовании технологии человеческих существ, с несколькими людей, интересуясь, как человеческими существ должно лечить машины. во всех случаях, только люди занимались в этическом рассуждении. пришло время для добавления этического измерения, по крайней мере некоторых машины. признание этических разветвлений поведения, связанных с машинами, а также недавние и потенциальные события в машине автономии, требует этого. в отличие от компьютерного взлома, вопросы собственности на программное обеспечение, вопросы конфиденциальности и другие темы, обычно приписываемых компьютерной этике, машина этика связана с поведением машин к человеческим пользователей и других машин. исследования в машине этики является ключом к облегчению проблемы с автономными системами, можно утверждать, что понятие автономных машин без таких измерение находится в корне всякого страха относительно машинного интеллекта. Кроме того, исследование машины этики может позволить открытию проблем с нынешними этическими теориями, выдвигая наше мышление об этике.»Машина этику иногда называют машинную моралью, вычислительной этикой или вычислительной моралью. Различные перспектив этой зарождающейся области может быть в собираемой издании «машина по этике», вытекающей из AAAI Fall 2005 симпозиум по этике машины.

Злобный и дружественный ИИ

Политолог Чарльз Т. Рубин считает , что ИИ не может быть ни разработан , ни гарантированно доброжелательны. Он утверждает , что «любая достаточно развитая доброжелательность может быть неотличима от недоброжелательности.» Люди не должны взять на себя машину или роботы будут относиться к нам выгодно , потому что нет априорного основания полагать , что они были бы сочувственно к нашей системе морали, которая развивалась вместе с нашей конкретной биологией (которые AIs не разделяет). Hyper-интеллектуальное программное обеспечение не обязательно может принять решение поддержать дальнейшее существование человечества и будет крайне трудно остановить. Эта тема также недавно начали обсуждаться в научных публикациях , как реальный источник рисков для цивилизации, людей и планеты Земля.

Одно предложение , чтобы справиться с этим, чтобы гарантировать , что первое правило интеллигентный ИИ « Дружественный ИИ », а затем будет иметь возможность контролировать впоследствии развитую AIs. Некоторые вопросы о целесообразности такой проверки действительно может оставаться на месте.

Ведущий научный сотрудник А.И. Родни Брукс пишет: «Я думаю , что это ошибка будет беспокоиться о нас в разработке злобный ИИ в любое время в течение следующих нескольких сотен лет. Я думаю , что беспокойство связано с фундаментальной ошибки в не различая разницу между очень реальными последних достижений в определенном аспекте AI и масштабности и сложности построения разумного волевой интеллекта «.

Машина сознания, духовная жизнь и разум

Если система AI повторяет все ключевые аспекты человеческого интеллекта, будет эта система также может быть разумной -Будет это есть ум , который имеет сознательный опыт ? Этот вопрос тесно связан с философской проблемой , как в природу человеческого сознания, как правило , называют трудной проблемой сознания .

Сознание

Чалмерс определил две проблем в понимании ума, который он назвал «жесткие» и «легкие» проблемы сознания. Легкой задачей является понимание того, как мозг обрабатывает сигналы, делает планы и управляет поведением. Твердая задача объяснить , как это чувствует и почему он должен чувствовать себя как угодно. Человеческая обработка информации легко объяснить, однако человеческий субъективный опыт трудно объяснить.

Например, рассмотрим , что происходит , когда человек получает образец цвета и определяет его, говоря : «это красное». Легкая задача требует только понимание механизма в мозге , что делает возможным для человека , чтобы знать , что образец цвета красного цвета. Твердая проблема заключается в том , что люди также знают , что - то еще, они также знают , что красный выглядит как . (Учтите , что человек , родившийся слепым может знать , что что - то красное , не зная , что красный выглядит.) Все знают , субъективный опыт существует, потому что они делают это каждый день (например, все зрячие люди знают , что красные , как выглядит). Трудная проблема объясняет , как мозг создает его, почему она существует, и как это отличается от знаний и других аспектов мозга.

Computationalism и функционализм

Computationalism позиция в философии сознания , что человеческий мозг или человеческий мозг (или оба) представляет собой систему обработки информации , и что мышление является формой вычислений. Computationalism утверждает , что связь между разумом и телом подобна или идентична взаимосвязью между программным обеспечением и аппаратными средствами , и , таким образом , может быть решением проблемы сознания и телом . Эта философская позиция была вдохновлена работой исследователей ИИ и когнитивный ученых в 1960 - х годах и первоначально была предложена философами Фодор и Хилари Putnam .

Сильная гипотеза А.И.

Философская позиция , которую Джон Серла назвали «сильным ИИ» гласит: «соответствующим образом запрограммировать компьютер с нужными входами и выходами будет , таким образом , иметь ум в точно такие же смысл у людей есть разум.» Searle счетчики этого утверждения с его китайским номером аргументом, который просит нас заглянуть внутрь компьютера и попытаться найти , где «разум» может быть.

права роботов

Если машина может быть создана , что есть разум, может также чувствовать ? Если он может чувствовать, это имеет те же права , как у человека? Этот вопрос, в настоящее время известный как « права роботов », в настоящее время рассматривается, например, в Калифорнии Институт будущего , хотя многие критики считают , что обсуждение является преждевременным. Некоторые критики трансгуманизма утверждают , что любые гипотетические права робота будут лежать на спектре с правами животных и правами человека. Тема глубоко обсуждаются в 2010 документальном фильме о Штекер & Помолитесь .

суперинтеллект

Существуют ли ограничения на то, как интеллектуальные машины или человек-машина гибридов-может быть? Суперинтеллект, hyperintelligence или сверхчеловеческий интеллект гипотетический агент , который обладал бы интеллектом намного превосходящим , что из самого яркого и одаренного человеческого ума. Суперинтеллект может также относиться к форме или степени интеллекта обладал таким агентом.

Технологическая сингулярность

Если исследование сильного ИИ произвело достаточно интеллектуальное программное обеспечение, оно может быть в состоянии перепрограммировать и улучшить себя. Улучшенное программное обеспечение было бы еще лучше на улучшение себя, что приводит к рекурсивной самосовершенствованию . Таким образом, новый интеллект может возрасти в геометрической прогрессии и значительно превосходят людей. Писатель - фантаст Виндж назвал этот сценарий « особенность ». Технологическая особенность при ускорении прогресса в области технологий приведет к галопирующей эффект , в котором искусственный интеллект превзойдет человеческий интеллектуальный потенциал и контроль, таким образом , коренным образом меняется или даже окончание цивилизации. Поскольку возможности такого интеллекта может быть невозможно понять, технологическая особенность является вхождением , за которой события непредсказуемы и даже непостижимое.

Рэй Курцвейл использовал закон Мура (который описывает неустанное экспоненциальное улучшение в области цифровых технологий) для расчета , что настольные компьютеры будут иметь такую же вычислительную мощность , как человеческий мозг по 2029 году, и предсказывает , что особенность будет происходить в 2045 годе .

Трансгуманизм

Робот дизайнер Ханс Moravec , кибернетик Кевин Уорвик и изобретатель Рэй Курцвейл предсказал , что люди и машины сольются в будущем в киборгов , которые более способны и мощным , чем либо. Эта идея, названная трансгуманизма , которая имеет корни в Олдоса Хаксли и Роберт Эттингер .

Эдвард Фредкин утверждает , что «искусственный интеллект является следующим этапом в эволюции», идея , впервые предложенная Samuel Butler «s„ Дарвин среди машин “(1863 г.), дополненный от Джорджа Дайсона в своей книге с тем же названием в 1998 году.

В художественной литературе

Слово «робот» сам по себе был придуман Карела Чапека в его 1921 играть рублей , титул стоял на « Универсальные роботы Россум »

Мысль-способные искусственные существа появились повествующих устройств с древних времен , и были постоянной темой в научной фантастике .

Обычный троп в этих работах начались с Мэри Шелли «s Франкенштейн , где человеческое создание становится угрозой для своих хозяв. Это включает в себя такие работы , как Артур К. Кларк и Стэнли Кубрик 2001: A Space Odyssey (оба 1968), с HAL 9000 , убийственным компьютером, отвечающими за открытие одного космического корабля, а также The Terminator (1984) и The Matrix (1999 ). В отличии от этого , редкие лояльных роботы , таких как Горт от Дня , когда Земля остановилась (1951) и епископ из Aliens (1986) являются менее видными в популярной культуре.

Айзек Азимов ввести три закона робототехники во многих книгах и рассказах, в первую очередь серии «Multivac» о супер-умный компьютер с таким же именем. Законы Азимова часто воспитывался во время неспециалиста обсуждения машин этики; в то время как почти все искусственные исследователи разведки знакомы с законами Азимова через массовую культуру, они обычно считают , что законы бесполезны по многим причинам, одна из которых является их неоднозначность.

Трансгуманизм (слияние человека и машины) исследуется в манги Призрак в доспехах и научно-фантастической серии Dune . В 1980 году художник Сораяма серии Sexy Robots «s были написаны и опубликованы в Японии , изображающая фактический органическую форму человека с реалистичного мышечный металлическими слоями , а позже„в Gynoids“книги следует , что была использована или влиянием кинематографисты , включая Джорджа Лукаса и других объявления. Sorayama никогда не считал эти органические роботы , чтобы быть реальной частью природы , но всегда неестественным продуктом человеческого ума, фантазии , существующие в уме даже тогда , когда реализуется в реальной форме.

Несколько работ используют искусственный интеллект , чтобы заставить нас противостоять фундаментальным вопроса о том , что делает нас человеком, показывая нам искусственные существа , которые имеют способность чувствовать , и , таким образом , чтобы страдать. Это проявляется в Карел Чапек «s„ рублей “, фильмы„ Искусственный интеллект “и„ Ex Machina “, а также роман ли андроиды Сон Electric Sheep? , По Филипа К. Дика . Дик считает идею , что наше понимание человеческой субъективности измененная по технологии , созданными с искусственным интеллектом.

Смотрите также

Заметки с пояснениями

Рекомендации

учебники А.И.

История А.И.

Другие источники

дальнейшее чтение

внешняя ссылка