Парадокс «Китайской комнаты»

Автор работы: Пользователь скрыл имя, 15 Ноября 2013 в 21:32, реферат

Описание работы

«Китайская комната» - мысленный эксперимент, описанный Джоном Сёрлем, подтверждающий недостаточность тестов Тьюринга. Представлен в статье «Сознание, мозг и программы» в качестве критики теории Шэнка.
По мнению Джона Сёрля существуют «сильный» AI (Artificial Intelligence — Искусственный Интеллект) и «слабый» AI. «Согласно слабому AI, основная ценность компьютера в изучении сознания состоит в том, что он дает нам некий очень мощный инструмент.

Файлы: 1 файл

«Китайская комната».docx

— 102.55 Кб (Скачать файл)

САНКТ-ПЕТЕРБУРГСКИЙ НАЦИОНАЛЬНЫЙ ИССЛЕДОВАТЕЛЬСКИЙ УНИВЕРСИТЕТ  ИНФОРМАЦИОННЫХ ТЕХНОЛОГИЙ, МЕХАНИКИ И ОПТИКИ

КАФЕДРА КОМПЬЮТЕРНОЙ ФОТОНИКИ И ВИДЕОИНФОРМАТИКИ

 

 

 

 

 

 

Реферат по дисциплине

«Искусственный интеллект»

На тему: «Парадокс «Китайской комнаты»»

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Выполнил:

Студент 3 курса

группы ***3

 А Г

 

 

 

 

 

 

 

 

 

 

 

Санкт-Петербург

2013

«Китайская комната» - мысленный  эксперимент, описанный Джоном Сёрлем, подтверждающий недостаточность тестов Тьюринга. Представлен в статье «Сознание, мозг и программы»  в качестве критики теории Шэнка.

По мнению Джона Сёрля существуют «сильный» AI (Artificial Intelligence — Искусственный Интеллект) и «слабый» AI. «Согласно слабому AI, основная ценность компьютера в изучении сознания состоит в том, что он дает нам некий очень мощный инструмент. Например, он дает нам возможность более строгим и точным образом формулировать и проверять гипотезы. Согласно же сильному AI, компьютер — это не просто инструмент в исследовании сознания; компьютер, запрограммированный подходящим образом, на самом деле и есть некое сознание в том смысле, что можно буквально сказать, что при наличии подходящих программ компьютеры понимают, а также обладают другими когнитивными состояниями. Согласно сильному AI, поскольку снабженный программой компьютер обладает когнитивными состояниями, программы — не просто средства, позволяющие нам проверять психологические объяснения; сами программы суть объяснения.» В своей статье автор соглашается с возможностью существования элементов «слабого» AI, но считает преувеличенным притязания «сильного» AI согласно которым «подходящим образом запрограммированный компьютер буквальным образом обладает когнитивными состояниями, и тем самым программы объясняют человеческое познание.» Сёрль утверждает, что с помощью конечных автоматов любого типа не может быть смоделирована система с бесконечным недетерминированным количеством состояний имитирующая работу мозга, являющегося сложной нейронной сетью с глубокой вложенностью, взаимодействующей с системой других аналогичных сетей. В качестве примера для подтверждения своей теории Джон Сёрль приводит в пример работы Роджера Шэнка оппонируя результатам в них представленным.

Целью программы Шэнка  является моделирование человеческой способности понимать рассказы. Для  способности людей понимать рассказы характерно, что люди способны отвечать на вопросы о данном рассказе даже в тех случаях, когда даваемая ими информация не выражена в рассказе явным образом. Машины Шэнка корректно  выполняют это условие. C точки зрения сторонников «сильного» AI программированный компьютер понимает рассказы и его программа в некотором смысле объясняет человеческое понимание.

В качестве критики приведённых  утверждений Джон Сёрль приводит эксперимент названный «Китайская комната». Он описывает эксперимент следующим образом: «Представим себе, что меня заперли в комнате и дали некий массивный текст на китайском языке. Представим себе далее, что я не знаю ни письменного, ни устного китайского языка (так оно и есть на самом деле) и что я не уверен даже, что распознал бы китайский письменный текст в качестве такового, сумев отличить его, скажем, от японского письменного текста или от каких-нибудь бессмысленных закорючек. Для меня китайское письмо как раз и представляет собой набор бессмысленных закорючек. Представим себе далее, что вслед за этой первой китайской рукописью мне дали вторую китайскую рукопись вместе с набором правил сопоставления второй рукописи с первой. Правила эти на английском языке, и я понимаю их, как понял бы любой другой носитель английского языка. Они дают мне возможность сопоставить один набор формальных символов со вторым набором формальных символов, и единственное, что значит здесь слово «формальный», — то, что я могу распознавать символы только по их форме. Представьте себе теперь, что мне дали третью китайскую рукопись вместе с некоторыми инструкциями, — вновь на английском языке, — дающими мне возможность сопоставлять элементы этой третьей рукописи с первыми двумя, и эти правила учат меня, как в ответ на те или иные формальные символы из третьей рукописи выдавать определенные китайские символы, имеющие определенные очертания. Люди, которые дали мне все эти символы, называют первый текст «рукописью», второй — «рассказом», а третий —  «вопросами», но я всех этих названий не знаю. Кроме того, они называют символы, которые я выдаю в ответ на третий текст, «ответами на вопросы», а набор правил на английском языке, который они дали мне, — «программой». Чтобы слегка усложнить эту историю, вообразите себе, что эти люди также дали мне некие рассказы на английском языке, которые я понимаю, и они задают мне вопросы на английском языке об этих рассказах, и я выдаю им ответы на английском языке. Представьте себе также, что после некоторого промежутка времени я так набиваю руку в выполнении инструкций по манипулированию китайскими символами, а программисты так набивают руку в писании программ, что при взгляде со стороны — то есть с точки зрения какого-либо человека, находящегося вне комнаты, в которой я заперт, — мои ответы на вопросы абсолютно неотличимы от ответов настоящих носителей китайского языка. Никто не сможет сказать, — если он видел только мои ответы, — что я ни слова не говорю по-китайски. Представим себе далее, что мои ответы на английские вопросы неотличимы от ответов, которые бы дали настоящие носители английского языка (как этого и следовало ожидать) — по той простой причине, что я и есть настоящий носитель английского языка. При взгляде со стороны, — с точки зрения какого-нибудь человека, читающего мои «ответы», — ответы на китайские вопросы и ответы на английские вопросы равно хороши. Но в случае китайских ответов, в отличие от случая английских ответов, я выдаю ответы, манипулируя не интерпретированными формальными символами. Что же касается китайского языка, я веду себя попросту как компьютер; совершаю вычислительные операции на формальным образом определенных элементах. В том, что касается китайского языка, я есть просто инстанциация компьютерной программы.» (Рис. 1)

                                 

      Рис.1 «Китайская комната»

«Сёрль хочет сказать, что если удалось написать программу, симулирующую, или эмулирующую, деятельность человеческого интеллекта и успешно проходящую классический тест Тьюринга, т. е. продуцирующую вербальное поведение, внешне неотличимое от поведения разумного человека, то из этого не следует, что компьютер, исполняющий такую программу, действительно разумен. И не следует этого потому, что человек, который располагал бы такой программой, или даже инсталлировал ее в свой собственный мозг, т. е. на время стал компьютером, вовсе не обрел бы реального понимания тех вещей, понимание которых эмулируются данной программой. Если, к примеру, этот человек не изучал китайский и знает лишь программу, написанную на понятном ему языке и позволяющую выдавать«правильные» китайские ответы на китайские же вопросы, то усвоение такой программы ничуть не приближает его к пониманию китайской речи. Дело в том, что программы, напоминает Сёрль, имеют синтаксический характер, а человеческое понимание семантично. В программе, находящейся в китайской комнате, прописано лишь то, что одна последовательность иероглифов, т. е. задаваемые вопросы, имплицирует другую последовательность иероглифов– ответы на них. Но знания этих импликаций явно не достаточно, чтобы испытуемый понял, о чем его спрашивают. Ведь значение китайских символов скрыто от него. При этом для внешних наблюдателей, общающихся с испытуемым в Китайской комнате через терминал, такой человек, как утверждает Сёрль, вел бы себя совершенно «по-китайски»» Тем самым парадокс Китайской комнаты Сёрля заключается в возможности демонстрируемого пользования языком в отстутствие собственного понимания.

Данным примером Сёрль имитирует работу компьютера, вне зависимости от положительного результата обработки информации, он не понимает ее смысла действуя только в соответствии с заданной аналогией, несмотря на то что в глобальном смысле он действительно «поддерживает разговор». Также показывается несостоятельность второй претензии «сильного» AI о том, что программа объясняет человеческое понимание. «Мы видим, что компьютер и его программа не дают достаточных условий понимания, поскольку компьютер и программа работают, а между тем понимания нет. Но, может быть, при этом создается хотя бы необходимое условие или делается существенный вклад в понимание? Одно из утверждений сторонников сильного AI состоит в том, что когда я понимаю некий рассказ на английском языке, я делаю в точности то же самое — или, быть может, почти то же самое, — что я делал, манипулируя китайскими символами. Случай с английским языком, когда я понимаю, отличается от случая с китайским языком, когда я не понимаю, просто тем, что в первом случае я проделываю больше манипуляций с формальными символами.

Я не показал, что это утверждение  ложно, но в данном примере оно  определенно должно казаться неправдоподобным. А той правдоподобностью, которой  оно все же обладает, оно обязано  предположению, будто мы можем построить  программу, которая будет иметь  те же входы и выходы, что и  носители языка, и вдобавок мы исходим  из допущения, что для носителей  языка имеется такой уровень  описания, на котором они также  являются инстанциациями программы.»

Мысленный эксперимент вызвал интенсивную дискуссию среди  учёных. Были выдвинуты различные  доводы против результатов, полученных Сёрлем.

Некоторые критики считают, что тест Тьюринга выдержал не робот, а система, состоящая из комнаты, книги правил и робота. Сёрль, по их мнению, отвлекает внимание от этого факта, концентрируясь на одном из компонентов системы, выполняющем в данном случае чисто механическую работу. Система из книги правил, человека и комнаты, по их мнению, является разумной и понимает китайский язык. «Это правда, что тот человек, который заперт в комнате, не понимает рассказа, но дело в том, что он всего лишь часть некоей цельной системы, и эта система понимает рассказ. Перед ним лежит гроссбух, в котором записаны правила, у него имеется стопка бумаги и чернила, чтобы делать вычисления, у него есть "банки данных" — наборы китайских символов. И вот понимание приписывается не просто индивиду; оно приписывается всей этой системе, частью которой он является». Однако при интериоризации всех элементов системы индивид будет являться системой. «При этом если вообразить робота, в черепной полости которого встроен имеющий форму мозга компьютер; вообразить, что этот компьютер запрограммирован всеми синапсами человеческого мозга; вообразить далее, что все поведение робота неотличимо от человеческого поведения. Считая получившееся единой системой, а не просто компьютером с входами и выходами такой системе можно приписать интенциональность».

Другие ставят под сомнение само существование семантики, по мнению авторов этой гипотезы, любое мышление есть всего лишь манипулирование синтаксисом аналогичное осуществляемому в компьютерах. «Потому что манипуляция формальными символами сама по себе не обладает никакой интенциональностью, она даже не является манипуляцией символами, так как эти символы ничего не символизируют. Интенциональность, которой, как кажется, обладает компьютер, существует единственно в мозгах тех людей, которые запрограммировали его и используют его, посылают нечто на вход и интерпретируют то, что появляется на выходе. Цель примера с китайской комнатой состояла в том, чтобы попытаться показать это, показав, что как только мы помещаем нечто в систему, которая на самом деле обладает интенциональностью (человек), и программируем эту систему формальной программой, то вы видите, что эта формальная программа не несет никакой дополнительной интенциональности. Она ничего не прибавляет, например, к способности человека понимать китайский язык.» Создание сильного AI принципиально невозможно без моделирования биологического сознания.

Китайская комната, доказывает прямо противоположное тому, что хотел доказать с ее помощью Сёрль. Он собирался продемонстрировать ошибочность концепции «сильного искусственного интеллекта», т. е. тезиса, что компьютер, эмулирующий человеческое поведение, с необходимостью обладает реальным пониманием и другими модусами сознания. При этом он не отрицал возможности механического эмулирования поведения, т.е. «слабого искусственного интеллекта». Продумывая обстановку его Китайской комнаты, мы, однако, приходим к выводу, что она скорее помогает уяснить нереальность проектов подобного эмулирования,–и соответственно заключить, что если программирование разумного поведения возможно, то реализующая такую программу система с необходимостью будет обладать сознательными состояниями.

 

 

 

 

 

 

 

 

 

 

Литература

  1. Джон Сёрль «Разум, мозг и наука», 1984
  2. Васильев В. В. Cекрет Китайской комнаты, («Философия сознания: классика и современность» М., 2007.)
  1. Алексей Редозубов «Логика мышления»

 

 

 

 

 
  

 


Информация о работе Парадокс «Китайской комнаты»