Китайская комната - Chinese room

Китайский зал аргумент гласит , что цифровой компьютер выполняет программу , не может иметь « ум », « понимание » или « сознание », независимо от того, насколько разумно или человек, как программа может сделать компьютер вести себя. Этот аргумент был представлен философом Джоном Сёрлом в его статье «Умы, мозг и программы», опубликованной в журнале Behavioral and Brain Sciences в 1980 году. Подобные аргументы были представлены Готфридом Лейбницем (1714), Анатолием Днепров (1961), Лоуренсом Дэвисом ( 1974) и Нед Блок (1978). С тех пор версия Серла широко обсуждалась. Центральным элементом аргументов Сирла является мысленный эксперимент, известный как « Китайская комната» .

Аргумент направлен против философских позиций в функционализма и computationalism , которые считают , что ум может рассматриваться как система , работающая обработки информации на официальных символах, и что моделирование данного психического состояния является достаточным для его присутствия. В частности, этот аргумент призван опровергнуть позицию, которую Сирл называет сильным ИИ : «Таким образом, правильно запрограммированный компьютер с правильными входами и выходами будет иметь разум в том же смысле, что и человеческие».

Хотя изначально он был представлен как реакция на заявления исследователей искусственного интеллекта (ИИ), он не является аргументом против целей основных исследований ИИ, поскольку не показывает ограничения на количество «интеллектуального» поведения, которое машина может демонстрировать. . Этот аргумент применим только к цифровым компьютерам, на которых выполняются программы, и не относится к машинам в целом.

Мысленный эксперимент в китайской комнате

Мысленный эксперимент Сирла начинается с этой гипотетической предпосылки: предположим, что исследованиям искусственного интеллекта удалось создать компьютер, который ведет себя так, как если бы он понимал китайский язык . Он принимает китайские символы в качестве входных данных и, следуя инструкциям компьютерной программы , производит другие китайские символы, которые он представляет в качестве выходных. Предположим, говорит Сирл, что этот компьютер выполняет свою задачу настолько убедительно, что с комфортом проходит тест Тьюринга : он убеждает человека, говорящего по-китайски, в том, что программа сама по себе является живым говорящим по-китайски. На все вопросы, которые задает человек, он дает соответствующие ответы, чтобы любой говорящий по-китайски был уверен, что он разговаривает с другим человеком, говорящим по-китайски.

Сирл хочет ответить на следующий вопрос: буквально ли машина «понимает» китайский язык? Или это просто имитация способности понимать китайский? Сирл называет первую позицию « сильным ИИ », а вторую - «слабым ИИ».

Затем Сирл предполагает, что он находится в закрытой комнате и имеет книгу с английской версией компьютерной программы, а также достаточное количество бумаг, карандашей, ластиков и шкафов для документов. Сирл мог принимать китайские иероглифы через прорезь в двери, обрабатывать их в соответствии с инструкциями программы и воспроизводить китайские иероглифы на выходе. Если бы компьютер прошел тест Тьюринга таким образом, то, по словам Сирла, он бы тоже сделал это, просто запустив программу вручную.

Сирл утверждает, что нет существенной разницы между ролями компьютера и им самим в эксперименте. Каждый просто следует программе, шаг за шагом, создавая поведение, которое затем интерпретируется пользователем как демонстрация разумного разговора. Однако сам Сирл не мог понять разговора. («Я не говорю по-китайски», - отмечает он.) Следовательно, утверждает он, из этого следует, что компьютер также не сможет понять разговор.

Сирл утверждает, что без «понимания» (или « интенциональности ») мы не можем описать то, что машина делает, как «думает», и, поскольку она не думает, у нее нет «разума» ни в чем подобном нормальному пониманию слово. Таким образом, он приходит к выводу, что гипотеза «сильного ИИ» неверна.

История

Готфрид Лейбниц в 1714 году выдвинул аналогичный аргумент против механизма (позиции, согласно которой разум - это машина, и не более того). Лейбниц использовал мысленный эксперимент по расширению мозга до размеров мельницы . Лейбниц с трудом мог представить, что «разум», способный к «восприятию», может быть сконструирован с использованием только механических процессов.

Русский кибернетик Анатолий Днепров в 1961 году выдвинул практически идентичный аргумент в форме рассказа « Игра ». В нем стадион людей действует как переключатели и ячейки памяти, реализующие программу для перевода предложения на португальский язык, который никто из них не знает. Игра была организована «профессором Зарубиным», чтобы ответить на вопрос «Могут ли математические машины думать?» Выступая через Зарубина, Днепров пишет: «Единственный способ доказать, что машины могут мыслить, - это превратить себя в машину и изучить свой мыслительный процесс». и он заключает, как и Сирл: «Мы доказали, что даже самая совершенная симуляция машинного мышления - это не сам процесс мышления».

В 1974 году Лоуренс Дэвис вообразил дублирование мозга с помощью телефонных линий и офисов, укомплектованных людьми, а в 1978 году Нед Блок вообразил, что все население Китая будет вовлечено в такую ​​симуляцию мозга. Этот мысленный эксперимент называется мозг Китая , также «Китайская нация» или «Китайский спортзал».

Джон Сирл в декабре 2005 года

Версия Сирла появилась в его статье 1980 года «Разум, мозг и программы», опубликованной в журнале Behavioral and Brain Sciences . В конечном итоге она стала «самой влиятельной целевой статьей» журнала, вызвав огромное количество комментариев и откликов в последующие десятилетия, и Сирл продолжал отстаивать и уточнять аргументы во многих статьях, популярных статьях и книгах. Дэвид Коул пишет, что «аргумент о китайской комнате, вероятно, был наиболее широко обсуждаемым философским аргументом в когнитивной науке за последние 25 лет».

Большая часть дискуссий состоит из попыток его опровергнуть. «Подавляющее большинство, - отмечает редактор BBS Стеван Харнад , - все еще считает, что аргумент о китайской комнате абсолютно неверен». Огромный объем литературы, выросшей вокруг нее, вдохновил Пэта Хейса прокомментировать, что область когнитивной науки должна быть переопределена как «текущая исследовательская программа, показывающая ложность аргумента Сирла о китайской комнате».

По словам Харнада, аргумент Сирла стал «чем-то вроде классики когнитивной науки». Варол Акман соглашается и охарактеризовал исходный документ как «образец философской ясности и чистоты».

Философия

Хотя аргумент китайской комнаты был первоначально представлен как реакция на утверждения исследователей искусственного интеллекта , философы стали рассматривать его как важную часть философии разума . Это вызов функционализму и вычислительной теории разума , и он связан с такими вопросами, как проблема разума и тела , проблема другого разума , проблема обоснования символов и трудная проблема сознания .

Сильный ИИ

Сирл определил философскую позицию, которую он называет «сильным ИИ»:

Таким образом, правильно запрограммированный компьютер с правильными входами и выходами будет иметь разум в том же смысле, в каком и человеческие существа.

Определение зависит от различия между симуляцией ума и действительным умом. Сирл пишет, что «согласно Сильному ИИ, правильная симуляция - это действительно разум. Согласно Слабому ИИ, правильная симуляция - это модель разума».

Это утверждение подразумевается в некоторых заявлениях ранних исследователей и аналитиков ИИ. Например, в 1955 году основатель искусственного интеллекта Герберт А. Саймон заявил, что «сейчас в мире есть машины, которые думают, учатся и создают». Саймон, вместе с Алленом Ньюэллом и Клиффом Шоу , после завершения первой программы «ИИ», теоретик логики , заявил, что они «решили почтенную проблему разума и тела , объясняя, как система, состоящая из материи, может обладать свойствами разума. . " Джон Хогеланд писал, что «ИИ нужен только подлинный предмет: машины с разумом , в полном и буквальном смысле. Это не научная фантастика, а настоящая наука, основанная на столь же глубокой теоретической концепции, а именно: мы, в корне, сами компьютеры ".

Сирл также приписывает следующие утверждения сторонникам сильного ИИ:

  • Системы ИИ можно использовать для объяснения разума;
  • Изучение мозга не имеет отношения к изучению разума; а также
  • Тест Тьюринга подходит для установления существования психических состояний.

Сильный ИИ как вычислитель или функционализм

В более поздних презентациях аргумента о китайской комнате Сирл определил «сильный ИИ» как «компьютерный функционализм » (термин, который он приписывает Дэниелу Деннетту ). Функционализм - это позиция в современной философии разума, согласно которой мы можем определять ментальные феномены (такие как убеждения, желания и восприятия), описывая их функции по отношению друг к другу и к внешнему миру. Поскольку компьютерная программа может точно представлять функциональные отношения как отношения между символами, компьютер может иметь ментальные феномены, если он запускает правильную программу, согласно функционализму.

Стеван Харнад утверждает, что описания Сирлом сильного ИИ можно переформулировать как «узнаваемые принципы вычислительного подхода , позицию (в отличие от« сильного ИИ »), которую на самом деле придерживаются многие мыслители, и, следовательно, ее стоит опровергнуть». Компьютационализм - это позиция в философии разума, которая утверждает, что разум можно точно описать как систему обработки информации .

Согласно Харнаду, каждое из следующих утверждений является «принципом» вычислительного подхода:

  • Психические состояния - это вычислительные состояния (поэтому компьютеры могут иметь психические состояния и помогать объяснять разум);
  • Вычислительные состояния не зависят от реализации - другими словами, именно программное обеспечение определяет вычислительное состояние, а не оборудование (вот почему мозг, будучи аппаратным, не имеет значения); и это
  • Поскольку реализация не важна, единственные эмпирические данные, которые имеют значение, - это то, как функционирует система; следовательно, тест Тьюринга является окончательным.

Сильный ИИ против биологического натурализма

Сирл придерживается философской позиции, которую он называет « биологическим натурализмом »: сознание и понимание требуют определенных биологических механизмов, которые находятся в мозге. Он пишет, что «мозг порождает разум» и что «реальные человеческие психические явления [зависят] от реальных физико-химических свойств реального человеческого мозга». Сирл утверждает, что этот механизм (известный в нейробиологии как « нейронные корреляты сознания ») должен обладать некоторыми причинными силами, которые позволяют человеческое переживание сознания. Вера Серла в существование этих способностей подвергалась критике.

Сирл не возражает против представления о том, что машины могут обладать сознанием и пониманием, потому что, как он пишет, «мы являемся именно такими машинами». Сирл считает, что мозг на самом деле является машиной, но что мозг дает начало сознанию и пониманию, используя механизмы, которые не являются вычислительными. Если нейробиология способна изолировать механический процесс, порождающий сознание, то Сирл допускает, что возможно создание машин, обладающих сознанием и пониманием. Однако Сирл не верит, что сознание может возникнуть без специального оборудования.

Биологический натурализм подразумевает, что нельзя определить, происходит ли переживание сознания, просто исследуя, как функционирует система, потому что особый механизм мозга важен. Таким образом, биологический натурализм прямо противоположен как бихевиоризму, так и функционализму (включая «компьютерный функционализм» или «сильный ИИ»). Биологический натурализм подобен теории идентичности (позиция, согласно которой психические состояния «идентичны» или «состоят из» неврологических событий); однако у Сирла есть определенные технические возражения против теории идентичности. Биологический натурализм Серла и сильный ИИ противоположны картезианскому дуализму , классической идее о том, что мозг и разум состоят из разных «субстанций». В самом деле, Сирл обвиняет сильный ИИ в дуализме, написав, что «сильный ИИ имеет смысл только при дуалистическом предположении, что в отношении разума мозг не имеет значения».

Сознание

Первоначальное представление Сирла подчеркивало «понимание», то есть ментальные состояния с тем, что философы называют « интенциональностью », и не касалось напрямую других тесно связанных идей, таких как «сознание». Однако в более поздних презентациях Сирл включил сознание как реальную цель аргументации.

Вычислительных моделей сознания для сознания недостаточно. Вычислительная модель сознания относится к сознанию точно так же, как вычислительная модель чего-либо относится к моделируемой области. Никто не думает, что вычислительная модель ливней в Лондоне оставит нас всех мокрыми. Но они ошибаются, полагая, что вычислительная модель сознания каким-то образом сознательна. В обоих случаях это одна и та же ошибка.

-  Джон Р. Сирл, Сознание и язык, с. 16

Дэвид Чалмерс пишет, что «совершенно ясно, что сознание лежит в основе дела» китайской комнаты.

Колин Макгинн утверждает, что китайская комната является убедительным доказательством того, что сложная проблема сознания принципиально неразрешима. Аргумент, чтобы быть ясным, заключается не в том, может ли машина быть сознательной, а в том, можно ли показать ее (или что-то еще в этом отношении) сознательной. Понятно, что любой другой метод проверки обитателя китайской комнаты сопряжен с теми же принципиальными трудностями, что и обмен вопросами и ответами на китайском языке. Просто невозможно предугадать, обитает ли в комнате сознательная сила или какая-то умная симуляция.

Сирл утверждает, что это верно только для наблюдателя вне комнаты. Вся суть мыслительного эксперимента поставить кого - то в комнате, где они могут непосредственно наблюдать за деятельностью сознания. Сирл утверждает, что с его выгодной позиции в комнате он не видит ничего, что могло бы вообразить сознание, кроме него самого, и очевидно, что у него нет ума, который может говорить по-китайски.

Прикладная этика

Сидеть в боевом информационном центре на борту военного корабля - предлагается как реальный аналог Китайской комнаты.

Патрик Хью использовал аргумент китайской комнаты, чтобы вывести требования из систем военного командования и управления , если они хотят сохранить моральную волю командира . Он провел аналогию между командиром в их командном центре и человеком в Китайской комнате и проанализировал это в свете представлений Аристотеля о «принудительном» и «незнании» . Информацию можно «преобразовать вниз» из смысла в символы и манипулировать символически, но моральная сила может быть подорвана, если не будет адекватного «преобразования вверх» в смысл. Хью привел примеры из инцидента с USS Vincennes .

Информатика

Аргумент китайской комнаты - это, прежде всего, аргумент философии разума , и как ведущие компьютерные ученые, так и исследователи искусственного интеллекта считают его неуместным для своей области. Тем не менее, несколько концепций , разработанных компьютерных ученых имеют важное значение для понимания аргумент, включая обработку символов , машины Тьюринга , Тьюринг полноту и тест Тьюринга .

Сильный ИИ против исследований ИИ

Аргументы Сирла обычно не считаются проблемой для исследований ИИ. Стюарт Рассел и Питер Норвиг отмечают, что большинство исследователей ИИ «не заботятся о сильной гипотезе ИИ - пока программа работает, им все равно, назовете ли вы это симуляцией интеллекта или настоящим интеллектом». Основная задача исследований в области искусственного интеллекта состоит только в том, чтобы создавать полезные системы, которые действуют разумно, и не имеет значения, является ли этот интеллект «просто» симуляцией.

Сирл не возражает, что исследования искусственного интеллекта могут создавать машины, способные к очень интеллектуальному поведению. Аргумент «китайская комната» оставляет открытой возможность того, что можно построить цифровую машину, которая будет действовать более разумно, чем человек, но не имеет разума или намерений, как у мозга .

«Сильный ИИ» Сирла не следует путать с « сильным ИИ » по определению Рэя Курцвейла и других футурологов, которые используют этот термин для описания машинного интеллекта, который соперничает или превосходит человеческий интеллект. Курцвейла в первую очередь интересует количество интеллекта, отображаемого машиной, тогда как аргумент Сирла не устанавливает ограничений на это. Сирл утверждает, что даже сверхразумная машина не обязательно должна иметь разум и сознание.

Тест Тьюринга

«Стандартная интерпретация» теста Тьюринга, в которой игроку C, допрашивающему, дается задача определить, какой игрок - A или B - является компьютером, а кто - человеком. Допрашивающий ограничивается использованием ответов на письменные вопросы для принятия решения. Изображение адаптировано из Сайгина и др. 2000 г.

В китайской комнате реализована версия теста Тьюринга . Алан Тьюринг представил тест в 1950 году, чтобы помочь ответить на вопрос «могут ли машины думать?» В стандартной версии судья-человек участвует в разговоре на естественном языке с человеком и машиной, предназначенной для создания производительности, неотличимой от человеческого существа. Все участники отделены друг от друга. Если судья не может достоверно отличить машину от человека, считается, что машина выдержала испытание.

Затем Тьюринг рассмотрел все возможные возражения против предложения «машины могут мыслить» и обнаружил, что есть простые и очевидные ответы, если вопрос будет демистифицирован таким образом. Однако он не предполагал, что тест будет измерять наличие «сознания» или «понимания». Он не считал, что это имеет отношение к проблемам, которые он решал. Он написал:

Я не хочу создавать впечатление, будто считаю, что в сознании нет никакой тайны. Есть, например, парадокс, связанный с любой попыткой его локализовать. Но я не думаю, что эти загадки обязательно нужно разгадывать, прежде чем мы сможем ответить на вопрос, который нас интересует в этой статье.

Для Сирла, как философа, исследующего природу разума и сознания , это соответствующие загадки. Китайская комната спроектирована так, чтобы показать, что теста Тьюринга недостаточно для обнаружения присутствия сознания, даже если комната может вести себя или функционировать как сознательный разум.

Обработка символов

Китайская комната (и все современные компьютеры) манипулируют физическими объектами для проведения расчетов и моделирования. Исследователи искусственного интеллекта Аллен Ньюэлл и Герберт А. Саймон назвали такую ​​машину физической системой символов . Это также эквивалентно формальным системам, используемым в области математической логики .

Сирл подчеркивает тот факт, что этот вид манипуляции с символами является синтаксическим (заимствовал термин из изучения грамматики ). Компьютер манипулирует символами, используя форму синтаксических правил , без какого-либо знания семантики символа (то есть их значения ).

Ньюэлл и Саймон предположили, что физическая система символов (например, цифровой компьютер) имеет все необходимые механизмы для «общего интеллектуального действия», или, как это известно сегодня, общего искусственного интеллекта . Они сформулировали это как философскую позицию, гипотезу о системе физических символов : «Система физических символов имеет необходимые и достаточные средства для общего разумного действия». Аргумент китайской комнаты не опровергает этого, потому что он сформулирован в терминах «разумного действия», то есть внешнего поведения машины, а не наличия или отсутствия понимания, сознания и разума.

Китайская комната и полнота Тьюринга

Китайская комната имеет дизайн, аналогичный дизайну современного компьютера. Он имеет архитектуру фон Неймана , которая состоит из программы (книга инструкций), некоторой памяти (бумаги и картотеки), центрального процессора, который следует инструкциям (человек), и средства записи символов в память ( карандаш и ластик). Машина с такой конструкцией известна в теоретической информатике как « полная по Тьюрингу », потому что она имеет необходимый механизм для выполнения любых вычислений, которые может выполнять машина Тьюринга , и, следовательно, она способна выполнять пошаговое моделирование любая другая цифровая машина при наличии достаточного количества памяти и времени. Алан Тьюринг пишет: «Все цифровые компьютеры в некотором смысле эквивалентны». Широко признанный тезис Черча – Тьюринга утверждает, что любая функция, вычислимая с помощью эффективной процедуры, вычислима с помощью машины Тьюринга.

Полнота китайской комнаты по Тьюрингу подразумевает, что она может делать то же, что и любой другой цифровой компьютер (хотя и намного медленнее). Таким образом, если китайская комната не содержит или не может содержать китайскоязычный ум, то никакой другой цифровой компьютер не может содержать ум. Некоторые ответы Сирлу начинаются с утверждения, что в комнате, как описано, не может быть китайскоязычного ума. Аргументы такой формы, по словам Стевана Харнада , не являются «не опровержением (а скорее подтверждением)» аргумента о китайской комнате, потому что эти аргументы фактически подразумевают, что никакие цифровые компьютеры не могут иметь разум.

Некоторые критики, такие как Ханох Бен-Ями, утверждают, что китайская комната не может имитировать все возможности цифрового компьютера, такие как способность определять текущее время.

Полный аргумент

Сирл представил более формальную версию аргументации, частью которой является Китайская комната. Он представил первую версию в 1984 году. Версия, приведенная ниже, относится к 1990 году. Единственная часть аргумента, которая должна быть спорной, - это A3, и именно этот момент мысленный эксперимент в китайской комнате призван доказать.

Он начинает с трех аксиом:

(A1) «Программы формальные ( синтаксические )».
Программа использует синтаксис для управления символами и не обращает внимания на семантику символов. Он знает, где разместить символы и как их перемещать, но не знает, что они обозначают или что они означают. Для программы символы - это такие же физические объекты, как и любые другие.
(A2) «У ума есть ментальное содержание ( семантика )».
В отличие от символов, используемых программой, наши мысли имеют значение: они представляют вещи, и мы знаем, что они представляют.
(A3) «Синтаксис сам по себе не является ни составляющим, ни достаточным для семантики».
Это то, что мысленный эксперимент с китайской комнатой призван доказать: у китайской комнаты есть синтаксис (потому что там человек, перемещающий символы). Китайская комната не имеет семантики (потому что, по словам Серла, в комнате нет никого или ничего, что понимало бы, что означают символы). Следовательно, синтаксиса недостаточно для создания семантики.

Сирл утверждает, что это прямо приводит к такому выводу:

(C1) Программы не образуют и не достаточны для умов.
Это должно следовать без противоречий из первых трех: Программы не имеют семантики. У программ есть только синтаксис, а синтаксиса недостаточно для семантики. У каждого ума есть семантика. Поэтому никакие программы - это умы.

Эта большая часть аргумента направлена ​​на то, чтобы показать, что искусственный интеллект никогда не сможет создать машину с разумом, написав программы, которые манипулируют символами. Остальная часть аргумента касается другой проблемы. Запускает ли человеческий мозг программу? Другими словами, верна ли вычислительная теория разума ? Он начинает с аксиомы, которая призвана выразить основной современный научный консенсус относительно мозга и разума:

(A4) Мозги порождают умы.

Сирл утверждает, что мы можем «сразу» и «тривиально» вывести следующее:

(C2) Любая другая система, способная вызывать умы, должна обладать каузальными способностями (по крайней мере), эквивалентными таковым у мозга.
В мозгу должно быть что-то, что заставляет разум существовать. Науке еще предстоит точно определить, что это такое, но оно должно существовать, потому что существуют умы. Сирл называет это «причинными силами». «Причинные силы» - это все, что мозг использует для создания разума. Если что-то еще может вызвать существование разума, оно должно обладать «эквивалентными причинными силами». «Эквивалентные причинные силы» является то , что еще , что можно было бы использовать , чтобы сделать ум.

Из этого он делает следующие выводы:

(C3) Любой артефакт, вызывающий ментальные феномены, любой искусственный мозг, должен был бы иметь возможность дублировать специфические причинные силы мозга, а он не мог этого сделать, просто запустив формальную программу.
Это следует из C1 и C2: поскольку никакая программа не может порождать разум, а «эквивалентные причинные силы» порождают умы, отсюда следует, что программы не имеют «эквивалентных причинных сил».
(C4) Способ, которым человеческий мозг на самом деле производит ментальные феномены, не может происходить исключительно благодаря запуску компьютерной программы.
Поскольку программы не имеют «эквивалентных причинных сил», «эквивалентные причинные силы» порождают умы, а мозг порождает умы, из этого следует, что мозг не использует программы для создания разума.

Ответы

Ответы на аргумент Серла можно классифицировать в зависимости от того, что они утверждают:

  • Те, которые определяют, кто говорит по-китайски
  • Те, которые демонстрируют, как бессмысленные символы могут стать значимыми
  • Те, которые предполагают, что китайская комната должна быть каким-то образом переделана
  • Те, кто утверждает, что аргумент Сирла вводит в заблуждение
  • Те, кто утверждает, что этот аргумент делает ложные предположения о субъективном сознательном опыте и, следовательно, ничего не доказывает

Некоторые аргументы (например, моделирование роботов и мозга) делятся на несколько категорий.

Ответы систем и виртуального разума: в поисках разума

В этих ответах делается попытка ответить на вопрос: если человек в комнате не говорит по-китайски, где же «ум», который говорит? Эти ответы обращаются к ключевым онтологическим проблемам разума против тела и симуляции против реальности. Все ответы, которые идентифицируют разум в комнате, являются версиями «ответа системы».

Ответ системы

В базовой версии утверждается, что «вся система» понимает китайский язык. Хотя этот человек понимает только английский язык, когда он сочетается с программой, бумагой для заметок, карандашами и картотечными шкафами, они образуют систему, которая может понимать китайский язык. «Здесь понимание не приписывается простому человеку; скорее, оно приписывается всей системе, частью которой он является», - объясняет Сирл. Тот факт, что человек не понимает китайский язык, не имеет значения, потому что важна только система в целом.

Сирл отмечает, что (в этой простой версии ответа) «система» - не что иное, как совокупность обычных физических объектов; он дает силу понимания и сознания «соединению этого человека и кусочков бумаги», не прилагая никаких усилий для объяснения того, как эта груда объектов стала сознательным, мыслящим существом. Сирл утверждает, что ни один разумный человек не должен быть удовлетворен ответом, если он не находится «во власти идеологии»; Для того чтобы этот ответ был хотя бы отдаленно правдоподобным, нужно принять как должное, что сознание может быть продуктом «системы» обработки информации и не требует чего-либо, напоминающего реальную биологию мозга.

Затем Сирл отвечает, упрощая этот список физических объектов: он спрашивает, что произойдет, если человек запомнит правила и будет отслеживать все в своей голове? Тогда вся система состоит только из одного объекта: самого человека. Сирл утверждает, что если человек не понимает китайского, то и система не понимает китайский, потому что теперь «система» и «человек» описывают один и тот же объект.

Критики ответа Серла утверждают, что программа позволила человеку иметь два разума в одной голове. Если мы предположим, что «разум» - это форма обработки информации, тогда теория вычислений может учитывать два вычисления, происходящие одновременно, а именно (1) вычисление для универсальной программируемости (которое является функцией, созданной человеком и записывающей материалы независимо от какого-либо конкретного содержания программы) и (2) вычисление машины Тьюринга, которая описывается программой (которая создается всем, включая конкретную программу). Таким образом, теория вычислений формально объясняет открытую возможность того, что второе вычисление в Китайской комнате может повлечь за собой семантическое понимание китайских входных данных, эквивалентное человеческому эквиваленту. Основное внимание уделяется машине Тьюринга программы, а не человеку. Однако, с точки зрения Серла, этот аргумент является круговым. Возникает вопрос, является ли сознание формой обработки информации, и этот ответ требует, чтобы мы сделали это предположение.

Более сложные версии системного ответа пытаются более точно определить, что такое «система», и они различаются тем, как именно они описывают ее. Согласно этим ответам, «разум, говорящий по-китайски» может быть таким, как «программное обеспечение», «программа», «работающая программа», симуляция «нейронных коррелятов сознания», «функциональная система». , «смоделированный разум», « эмерджентное свойство» или « виртуальный разум» ( версия ответа системы Марвина Мински , описанная ниже).

Ответ виртуального разума

Термин « виртуальный » используется в информатике для описания объекта, который кажется существующим «в» компьютере (или компьютерной сети) только потому, что программное обеспечение создает впечатление, что он существует. Все объекты «внутри» компьютеров (включая файлы, папки и т. Д.) Являются «виртуальными», за исключением электронных компонентов компьютера. Точно так же, утверждает Мински , компьютер может содержать «разум», который является виртуальным в том же смысле, что и виртуальные машины , виртуальные сообщества и виртуальная реальность .
Чтобы прояснить различие между простым ответом системы, приведенным выше, и ответом виртуального разума, Дэвид Коул отмечает, что в одной системе могут одновременно выполняться два моделирования: одно говорит на китайском, а другое - на корейском. Хотя существует только одна система, может быть несколько «виртуальных умов», поэтому «система» не может быть «умом».

Сирл отвечает, что такой разум в лучшем случае является симуляцией , и пишет: «Никто не думает, что компьютерное моделирование пожара с пятью тревогами сожжет весь район или что компьютерное моделирование ливня оставит нас всех мокрыми». Николас Фирн отвечает, что в некоторых случаях моделирование ничуть не хуже настоящего. «Когда мы вызываем функцию карманного калькулятора на настольном компьютере, на экране появляется изображение карманного калькулятора. Мы не жалуемся, что« на самом деле это не калькулятор », потому что физические характеристики устройства не соответствуют иметь значение." Вопрос в том, состоит ли человеческий разум, как карманный калькулятор, по существу из информации? Или разум, подобный ливню, является чем-то другим, кроме компьютера, и не может быть полностью реализован с помощью компьютерного моделирования? На протяжении десятилетий этот вопрос моделирования заставлял исследователей и философов искусственного интеллекта задуматься о том, является ли термин « синтетический интеллект » более подходящим, чем обычное описание такого разума как «искусственный».

В этих ответах объясняется, кто именно понимает китайский язык. Если в комнате есть кто-то, кроме человека, который понимает по-китайски, Сирл не может утверждать, что (1) этот человек не понимает китайского, следовательно, (2) никто в комнате не понимает китайский. Это, по мнению тех, кто дает этот ответ, показывает, что аргумент Сирла не может доказать, что «сильный ИИ» ложен.

Однако эти ответы сами по себе не дают никаких доказательств того, что сильный ИИ верен . Они не показывают, что система (или виртуальный разум) понимает китайский язык, кроме гипотетической предпосылки, что она проходит тест Тьюринга . Сирл утверждает, что, если мы считаем Strong AI отдаленно правдоподобным, Китайская комната является примером, требующим объяснения, и трудно или невозможно объяснить, как сознание может «появиться» из комнаты или как система будет иметь сознание. Как пишет Сирл, «ответ системы просто напрашивается на вопрос, настаивая на том, что система должна понимать китайский язык» и, таким образом, уклоняется от вопроса или безнадежно циркулирует.

Ответы роботов и семантики: поиск смысла

Что касается человека, находящегося в комнате, символы представляют собой бессмысленные «волнистые линии». Но если китайская комната действительно «понимает», о чем говорит, то символы должны откуда-то брать свое значение. Эти аргументы пытаются связать символы с вещами, которые они символизируют. Эти ответы отражают озабоченность Сирла относительно преднамеренности , символьного обоснования и синтаксиса по сравнению с семантикой .

Ответ робота

Предположим, что вместо комнаты программа была помещена в робота, который мог бродить и взаимодействовать со своим окружением. Это позволит установить « причинную связь» между символами и вещами, которые они представляют. Ханс Моравец комментирует: «Если бы мы могли привить робота к программе рассуждений, нам больше не нужен был бы человек, который бы придавал смысл: он пришел бы из физического мира».
Ответ Сирла состоит в том, чтобы предположить, что без ведома человека, находящегося в китайской комнате, некоторые входные данные поступали непосредственно с камеры, установленной на роботе, а некоторые выходы использовались для управления руками и ногами робота. Тем не менее, человек в комнате по-прежнему просто следует правилам и не знает, что означают символы. Сирл пишет: «Он не видит того, что попадает в глаза роботу». (См . Комнату Мэри для подобного мысленного эксперимента.)

Производное значение

Некоторые отвечают , что в комнате, так как Searle описывает его, как связи с миром: через говорящих на китайском языке , что он «говорить» и через программистов , которые проектировали базу знаний в его картотеке. Символы, которыми манипулирует Сирл , уже значимы , но для него они просто не значимы .
Сёрл говорит, что символы имеют только «производное» значение, как и значения слов в книгах. Значение символов зависит от сознательного понимания говорящими на китайском языке и программистами за пределами комнаты. Комната, как книга, не имеет собственного понимания.

Здравый смысл / ответ контекстуализма

Некоторые утверждали, что значения символов могут быть получены из обширного «фона» здравого смысла, закодированного в программе и картотеках. Это обеспечит « контекст », который придаст символам их значение.
Сирл согласен с тем, что этот фон существует, но не согласен с тем, что он может быть встроен в программы. Хуберт Дрейфус также подверг критике идею о том, что «фон» может быть представлен символически.

На каждое из этих предложений Сирл отвечает одинаково: независимо от того, сколько знаний записано в программу и как бы программа ни была связана с миром, он все еще находится в комнате, манипулируя символами в соответствии с правилами. Его действия синтаксичны, и это никогда не может объяснить ему, что означают символы. Сирл пишет: «Синтаксис недостаточен для семантики».

Однако для тех, кто согласен с тем, что действия Сирла моделируют разум, отдельный от его собственного, важным вопросом является не то, что символы значат для Сирла , важно то, что они значат для виртуального разума. В то время как Сирл заперт в комнате, виртуальный разум - нет: он связан с внешним миром через говорящих по-китайски, с которыми он разговаривает, через программистов, которые дали ему мировые знания, а также через камеры и другие датчики, которые могут предоставить робототехники .

Моделирование мозга и ответы на вопросы коннекционистов: новый дизайн комнаты

Эти аргументы представляют собой все версии системного ответа, которые определяют особый вид системы как важную; они идентифицируют какую-то особую технологию, которая создаст осознанное понимание в машине. (Ответы «робот» и «здравый смысл» выше также указывают на важность определенного типа системы.)

Ответ симулятора мозга

Предположим, что программа детально смоделировала действие каждого нейрона в мозгу говорящего по-китайски. Это укрепляет интуицию о том, что не будет значительной разницы между работой программы и работой живого человеческого мозга.
Сирл отвечает, что такое моделирование не воспроизводит важные особенности мозга - его причинные и интенциональные состояния. Сирл непреклонен в том, что «человеческие психические феномены [зависят] от реальных физико-химических свойств реального человеческого мозга». Более того, он утверждает:

[Я] представляю себе, что вместо одноязычного человека в комнате, перетасовывающего символы, у нас есть человек, управляющий сложным набором водопроводных труб с клапанами, соединяющими их. Когда мужчина получает китайские символы, он ищет в программе, написанной на английском языке, какие клапаны он должен включать и выключать. Каждое водное соединение соответствует синапсу в китайском мозгу, и вся система настроена так, что после выполнения всех правильных запусков, то есть после включения всех правильных кранов, китайские ответы появляются в конце серии. труб. Где теперь понимание в этой системе? Он принимает китайский язык на входе, моделирует формальную структуру синапсов китайского мозга и дает китайский язык на выходе. Но этот человек определенно не понимает китайского языка, как и водопроводные трубы, и если мы склонны принять то, что я считаю абсурдным, каким-то образом понимает соединение человека и водопровода, помните, что в принципе человек может усвоить формальная структура водопроводных труб и все «срабатывания нейронов» в его воображении.

Два варианта ответа симулятора мозга - это китайский мозг и сценарий замены мозга.
Китай мозг
Что, если мы попросим каждого гражданина Китая смоделировать один нейрон, используя телефонную систему для моделирования связей между аксонами и дендритами ? В этой версии кажется очевидным, что ни один человек не будет понимать, что может говорить мозг. Также очевидно, что эта система будет функционально эквивалентна мозгу, поэтому, если сознание является функцией, эта система будет сознательной.
Сценарий замены мозга
Здесь нас просят представить, что инженеры изобрели крошечный компьютер, который имитирует действие отдельного нейрона. Что произойдет, если мы заменим по одному нейрону за раз? Замена одного явно не повлияет на сознательное осознание. Замена всех из них создаст цифровой компьютер, имитирующий мозг. Если Сирл прав, тогда во время процедуры сознательное осознавание должно исчезнуть (постепенно или полностью). Критики Серла утверждают, что во время процедуры не было бы никакого смысла, если бы он мог утверждать, что сознательное осознание заканчивается и начинается бездумное моделирование. Сирл предсказывает, что, проходя мозговой протез, «к своему полному изумлению вы обнаруживаете, что действительно теряете контроль над своим внешним поведением. Например, вы обнаруживаете, что когда врачи проверяют ваше зрение, вы слышите, как они говорят:« Мы держат перед собой красный предмет; расскажите, пожалуйста, что вы видите ». Вы хотите кричать: «Я ничего не вижу. Я полностью ослеп». Но вы слышите, как ваш голос говорит совершенно не зависящим от вас образом: «Я вижу красный объект перед собой». [...] [Y] наш сознательный опыт постепенно превращается в ничто, в то время как ваше внешне наблюдаемое поведение остается прежним ». (См. « Корабль Тесея» для подобного мысленного эксперимента.)

Ответы коннекционистов

Тесно связанный с ответом симулятора мозга, он утверждает, что массивно-параллельная архитектура коннекционизма будет способна понять.

Комбинированный ответ

Этот ответ объединяет ответ робота с ответом симуляции мозга, утверждая, что симуляция мозга, связанная с миром через тело робота, может иметь разум.

Много особняков / ждать ответа в следующем году

Более совершенные технологии будущего позволят компьютерам понимать. Сирл соглашается, что это возможно, но считает этот момент несущественным. Сирл соглашается с тем, что могут быть конструкции, которые заставят машину иметь сознательное понимание.

Эти аргументы (и ответы робота или здравого смысла) указывают на некую особую технологию, которая поможет создать осознанное понимание в машине. Их можно интерпретировать двояко: либо они заявляют, что (1) эта технология необходима для сознания, китайская комната не реализует или не может реализовать эту технологию, и, следовательно, китайская комната не может пройти тест Тьюринга или (даже если бы прошла) ее. не имел бы сознательного понимания. Или они могут утверждать, что (2) легче увидеть, что у китайской комнаты есть разум, если мы визуализируем эту технологию как используемую для ее создания.

В первом случае, когда требуются такие функции, как корпус робота или архитектура коннекционизма, Сирл утверждает, что от сильного ИИ (в его понимании) отказались. Китайская комната имеет все элементы полной машины Тьюринга и, таким образом, способна моделировать любые цифровые вычисления. Если комната Сирла не может пройти тест Тьюринга, то нет другой цифровой технологии, которая могла бы пройти тест Тьюринга. Если комната Сирла может пройти тест Тьюринга, но все еще не имеет разума, тогда теста Тьюринга недостаточно, чтобы определить, есть ли в комнате «разум». В любом случае он отрицает ту или иную позицию, которую Сирл считает «сильным ИИ», подтверждая свой аргумент.

Мозговые аргументы, в частности, отрицают сильный ИИ, если они предполагают, что нет более простого способа описать разум, чем создать программу, столь же загадочную, как и мозг. Он пишет: «Я думал, что вся идея сильного ИИ заключалась в том, что нам не нужно знать, как работает мозг, чтобы знать, как он работает». По словам Серла, если вычисления не дают объяснения человеческого разума, значит, сильный ИИ потерпел неудачу.

Другие критики считают, что комната, как ее описал Сирл, на самом деле имеет разум, однако они утверждают, что ее трудно увидеть - описание Сирла верно, но вводит в заблуждение. Создавая более реалистичный дизайн комнаты, они надеются сделать это более очевидным. В данном случае эти аргументы используются как апелляция к интуиции (см. Следующий раздел).

На самом деле, комнату можно так же легко изменить, чтобы ослабить нашу интуицию. Ned Block «s Blockhead аргумент предполагает , что программа могла бы, в теории, можно переписать в виде простой таблицы перекодировки из правил вида„если пользователь пишет S Ответить с P и Goto X“. По крайней мере, в принципе, любую программу можно переписать (или « рефакторировать ») в эту форму, даже симуляцию мозга. В сценарии с болванами все психическое состояние скрыто за буквой X, которая представляет адрес памяти - число, связанное со следующим правилом. Трудно представить себе, что мгновение чьего-либо сознательного опыта может быть зафиксировано в одном большом количестве, но это именно то, что утверждает «сильный ИИ». С другой стороны, такая таблица поиска была бы смехотворно большой (до такой степени, что она была бы физически невозможной), и поэтому состояния могли бы быть чрезвычайно конкретными.

Сирл утверждает, что, как бы ни была написана программа или как бы машина ни была связана с миром, разум моделируется простой пошаговой цифровой машиной (или машинами). Эти машины всегда похожи на человека в комнате: они ничего не понимают и не говорят по-китайски. Они просто манипулируют символами, не зная, что они означают. Сирл пишет: «У меня может быть любая формальная программа, какая вам нравится, но я все равно ничего не понимаю».

Скорость и сложность: обращается к интуиции

Следующие аргументы (и интуитивная интерпретация приведенных выше аргументов) не объясняют напрямую, как человек, говорящий по-китайски, мог существовать в комнате Сирла или как символы, которыми он манипулирует, могли стать значимыми. Однако, вызывая сомнения в интуиции Серла, они поддерживают другие позиции, такие как ответы системы и роботов. Эти аргументы, если они приняты, не позволяют Серлу утверждать, что его вывод очевиден, поскольку они подрывают интуицию, которой требует его уверенность.

Некоторые критики полагают, что аргумент Сирла полностью основан на интуиции. Нед Блок пишет: «Аргумент Серла зависит от интуиции, о которой не думают некоторые сущности». Дэниел Деннет описывает аргумент о китайской комнате как вводящий в заблуждение « насос интуиции » и пишет: «Мысленный эксперимент Сирла незаконно зависит от того, что вы представляете слишком простой случай, не относящийся к делу, и делаете из него« очевидный »вывод».

Некоторые из приведенных выше аргументов также служат апелляцией к интуиции, особенно те, которые призваны сделать более правдоподобным тот факт, что китайская комната содержит разум, который может включать робота, здравый смысл, моделирование мозга и ответы коннекционистов. Некоторые из приведенных выше ответов также касаются конкретной проблемы сложности. В ответе коннекциониста подчеркивается, что работающая система искусственного интеллекта должна быть такой же сложной и взаимосвязанной, как человеческий мозг. Ответ на основе здравого смысла подчеркивает, что любая программа, прошедшая тест Тьюринга, должна быть «чрезвычайно гибкой, сложной и многоуровневой системой, наполненной« мировым знанием », мета-знанием и мета-мета-знанием», как объясняет Дэниел Деннет. .

Скорость и сложность ответов

Скорость, с которой человеческий мозг обрабатывает информацию, составляет (по некоторым оценкам) 100 миллиардов операций в секунду. Некоторые критики отмечают, что человеку в комнате, вероятно, потребуются миллионы лет, чтобы ответить на простой вопрос, и ему потребуются «картотеки» астрономических размеров. Это ставит под сомнение ясность интуиции Сирла.

Особенно яркая версия ответа о скорости и сложности была получена от Пола и Патрисии Черчленд . Они предлагают аналогичный мысленный эксперимент:

Светлая комната Черчленда

"Представьте темную комнату, в которой человек держит стержневой магнит или заряженный объект. Если человек качает магнит вверх и вниз, то, согласно теории искусственной яркости Максвелла (AL), он инициирует распространение электромагнитных волн по кругу. и, таким образом, будет светиться. Но как хорошо известно всем, кто играл с магнитами или заряженными шарами, их силы (или любые другие силы в этом отношении), даже когда они приводятся в движение, вообще не производят яркости. Это немыслимо, чтобы вы может создать реальную яркость, просто перемещая силы вокруг! " Проблема в том, что ему пришлось бы махать магнитом вверх и вниз примерно 450 триллионов раз в секунду, чтобы что-то увидеть.

Стеван Харнад критически относится к скорости и сложности ответов, когда они выходят за рамки нашей интуиции. Он пишет : «Некоторые из них сделал культ скорости и времени, считая , что, когда ускоряется до правильной скорости, вычислительный может сделать фазовый переход в ментальном. Должно быть ясно , что это не контраргумент , а всего лишь специальная спекуляция ( как и точка зрения, что все это просто вопрос повышения до нужной степени "сложности".) "

Сирл утверждает, что его критики также полагаются на интуицию, однако интуиции его оппонентов не имеют эмпирической основы. Он пишет, что для того, чтобы считать «ответ системы» хотя бы отдаленно правдоподобным, человек должен находиться «во власти идеологии». Системный ответ имеет смысл (для Серла) только в том случае, если предположить, что любая «система» может обладать сознанием только в силу того, что она является системой с правильным поведением и функциональными частями. Он утверждает, что это предположение не соответствует нашему опыту сознания.

Другие умы и зомби: бессмысленность

Некоторые ответы утверждают, что аргумент Сирла неуместен, потому что его предположения о разуме и сознании ошибочны. Сирл считает, что люди ежедневно непосредственно испытывают свое сознание, интенциональность и природу ума, и что этот опыт сознания не подлежит сомнению. Он пишет, что мы должны «предполагать реальность и познаваемость ментального». Эти ответы ставят вопрос о том, имеет ли Сирл право использовать свой собственный опыт сознания для определения того, что это нечто большее, чем механическая обработка символов. В частности, ответ «другие умы» утверждает, что мы не можем использовать наш опыт сознания для ответа на вопросы о других разумах (даже о разуме компьютера), а ответ «эпифеномены» утверждает, что сознание Сирла не «существует» в том смысле, в котором думает Сирл. оно делает.

Другие умы отвечают
Этот ответ указывает на то, что аргумент Сирла - это версия проблемы других умов , примененная к машинам. Мы не можем определить, совпадает ли субъективный опыт других людей с нашим собственным. Мы можем только изучать их поведение (т. Е. Давая им собственный тест Тьюринга ). Критики Сирла утверждают, что он ставит китайскую комнату на более высокий уровень, чем мы могли бы придерживаться обычного человека.

Нильс Нильссон пишет: «Если программа ведет себя так, как если бы она умножалась, большинство из нас сказали бы, что на самом деле это умножение. Насколько мне известно, Сирл может вести себя только так, как если бы он глубоко размышлял об этих вопросах. Но, хотя я с ним не согласен, его симуляция довольно хороша, так что я готов отдать ему должное за настоящую мысль ».

Алан Тьюринг предвосхитил аргументацию Сирла (которую он назвал «Аргументом сознания») в 1950 году и заставляет другие умы ответить. Он отметил, что люди никогда не принимают во внимание проблемы других умов, когда общаются друг с другом. Он пишет, что «вместо того, чтобы постоянно спорить по этому поводу, обычно принято вежливое соглашение, как все думают». Тест Тьюринга просто распространяет это «вежливое соглашение» на машины. Он не намеревается решать проблемы других умов (машин или людей) и не думает, что нам это нужно.

Исключительный ответ материализма
Некоторые философы утверждают, что сознания, как его описывает Сирл, не существует. Эту позицию иногда называют элиминативным материализмом : точка зрения, согласно которой сознание - это свойство, которое может быть сведено к строго механическому описанию, и что наш опыт сознания является, как его описывает Дэниел Деннет, « иллюзией пользователя ». Другие ментальные свойства, такие как изначальная интенциональность (также называемая «значением», «содержанием» и «семантическим характером»), также обычно рассматриваются как нечто особенное в убеждениях и других пропозициональных установках. Элиминативный материализм утверждает, что пропозициональные установки, такие как убеждения и желания, среди других интенциональных ментальных состояний, имеющих содержание, не существуют. Если элиминативный материализм является правильным научным объяснением человеческого познания, то предположение аргумента китайской комнаты о том, что «умы обладают ментальным содержанием ( семантикой )», должно быть отвергнуто.

Стюарт Рассел и Питер Норвиг утверждают, что, если мы принимаем Сирлское описание интенциональности, сознания и разума, мы вынуждены признать, что сознание является эпифеноменальным : оно «не отбрасывает тени», что оно не обнаруживается во внешнем мире. Они утверждают, что Сирл, должно быть, ошибается в отношении «познаваемости ментального» и в своей вере в то, что в наших нейронах есть «причинные свойства», которые порождают разум. Они указывают на то, что, по собственному описанию Сирла, эти причинные свойства не могут быть обнаружены кем-либо вне разума, иначе Китайская комната не могла бы пройти тест Тьюринга - люди снаружи могли бы сказать, что китайца не было. динамик в комнате, обнаруживая их причинные свойства. Поскольку они не могут обнаружить причинные свойства, они не могут обнаружить существование ментального. Короче говоря, «причинные свойства» Серла и само сознание необнаружимы, и все, что не может быть обнаружено, либо не существует, либо не имеет значения.

Дэниел Деннет предлагает это расширение аргумента «эпифеномены».

Ответ Деннета от естественного отбора
Предположим, что в результате некоторой мутации рождается человек, который не обладает "причинными свойствами" Сирла, но, тем не менее, действует точно так же, как человек. (Этот вид животных называется « зомби » в мысленных экспериментах философии разума ). Это новое животное будет воспроизводиться так же, как и любой другой человек, и в конечном итоге этих зомби станет больше. Естественный отбор будет благоприятствовать зомби, поскольку их конструкция (можно предположить) немного проще. В конце концов люди вымрут. Поэтому, если Сирл прав, наиболее вероятно, что люди (какими мы их видим сегодня) на самом деле являются «зомби», которые, тем не менее, настаивают на том, что они сознательны. Невозможно узнать, все мы зомби или нет. Даже если мы все зомби, мы все равно будем верить, что это не так.

Сирл не согласен с этим анализом и утверждает, что «изучение разума начинается с таких фактов, как то, что у людей есть убеждения, а у термостатов, телефонов и счетных машин нет… мы хотели знать, что отличает разум от термостатов. и печень ". Он считает очевидным, что мы можем обнаружить присутствие сознания, и отклоняет эти ответы как не относящиеся к делу.

Ньютона пламенный лазерный меч ответ
Майк Алдер утверждает, что весь аргумент является несерьезным, потому что он не верификационистский : не только различие между моделированием разума и наличием разума плохо определено, но также не имеет значения, потому что никакие эксперименты не предлагались или даже не могут быть предложены. чтобы различать эти два.

Английский ответ

Маргарет Боден представила этот ответ в своей статье «Побег из китайской комнаты». В нем она предполагает, что даже если человек в комнате не понимает китайского, это не означает, что в комнате нет понимания. Человек в комнате, по крайней мере, понимает свод правил, используемый для выработки ответов.

В популярной культуре

Аргумент о китайской комнате - центральная идея в романах Питера Уоттса « Слепота» и (в меньшей степени) « Эхопраксия» . Это также центральная тема в видеоигре «Последняя награда добродетели», связанная с повествованием игры. В 4 сезоне американской криминальной драмы Numb3rs есть краткое упоминание о китайской комнате.

The Chinese Room - это также название британской независимой студии разработки видеоигр, наиболее известной благодаря работе над экспериментальными играми от первого лица, такими как Everybody's Gone to the Rapture или Dear Esther .

В видеоигре 2016 года «Тест Тьюринга» мысленный эксперимент «Китайская комната» объясняется игроку с помощью ИИ.

Смотрите также

Примечания

Цитаты

использованная литература

Номера страниц выше относятся к стандартной печати статьи в формате PDF .
Номера страниц выше относятся к стандартной печати статьи в формате PDF .
Номера страниц выше относятся к стандартной печати статьи в формате PDF .
Номера страниц выше относятся к стандартной печати статьи в формате PDF .
Номера страниц выше относятся к стандартной печати статьи в формате PDF . См. Также оригинальный черновик Сирла .
Номера страниц выше относятся к стандартной печати статьи в формате PDF .
Номера страниц выше и содержание диаграмм относятся к распечатке статьи в PDF-формате Lyceum .

дальнейшее чтение