Только для сумасшедших

плата за вход - разум

Previous Entry Share Next Entry
Китайская комната
l0vecraft
Джон Сёрль, критикуя возможность создания искусственного интеллекта, предложил следующий мысленный эксперимент:

"Возьмём, например, какой-нибудь язык, которого вы не понимаете. Для меня таким языком является китайский. Текст, написанный по-китайски, я воспринимаю как набор бессмысленных каракулей. Теперь предположим, что меня поместили в комнату, в которой расставлены корзинки, полные китайских иероглифов. Предположим также, что мне дали учебник на английском языке, в котором приводятся правила сочетания символов китайского языка, причём правила эти можно применять, зная лишь форму символов, понимать значение символов совсем необязательно. Например, правила могут гласить: «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два».

Представим себе, что находящиеся за дверью комнаты люди, понимающие китайский язык, передают в комнату наборы символов и что в ответ я манипулирую символами согласно правилам и передаю обратно другие наборы символов. В данном случае книга правил есть не что иное, как «компьютерная программа». Люди, написавшие её, — «программисты», а я играю роль «компьютера». Корзинки, наполненные символами, — это «база данных»; наборы символов, передаваемых в комнату, это «вопросы», а наборы, выходящие из комнаты, это «ответы».

Предположим далее, что книга правил написана так, что мои «ответы» на «вопросы» не отличаются от ответов человека, свободно владеющего китайским языком. Например, люди, находящиеся снаружи, могут передать непонятные мне символы, означающие; «Какой цвет вам больше всего нравится?» В ответ, выполнив предписанные правилами манипуляции, я выдам символы мне также непонятные и означающие, что мой любимый цвет синий, но мне также очень нравится зелёный. Таким образом, я выдержу тест Тьюринга на понимание китайского языка. Но все же на самом деле я не понимаю ни слова по-китайски. К тому же я никак не могу научиться этому языку в рассматриваемой системе, поскольку не существует никакого способа, с помощью которого я мог бы узнать смысл хотя бы одного символа. Подобно компьютеру, я манипулирую символами, но не могу придать им какого бы то ни было смысла. Этот пример соответствует системе быстрого обучения формальным знаниям для решения типовых задач, которая сегодня стала вытеснять в коммерческих школах аналитическую систему образования. Такие специалисты с программным мышлением способны быстро, не раздумывая, решать задачи из заученного набора, но абсолютно беспомощны в нестандартной ситуации. Аналитическое мышление, используя собственные знания, может путем сопоставления комбинаций символов и анализа порядка в передаваемых сообщениях для ответа, определить устойчивые сценарии их применения, а значит построить классификатор условных понятий и форм применения. Полученную формальную систему можно согласовать с собственной системой знаний, по принципу непротиворечивости перевода высказываний на обоих языках в общем пространстве мышления. В результате мы получим однозначное относительное представление о неизвестном языке, но конкретные характеристики объектов в этом языке останутся неопределенными. Внести определенность можно только калибровочными тестами сличения базовых элементов обоих систем для установления функции их отображения. К этому типу задач относится также установление контакта с разумом иной формы жизни, развившееся в принципиально других физических условиях."

Из этого выводится, что компьютер, оперирует символами исходя из алгоритма, который задает синтаксическую структуру (заданную человеком), но при этом напрочь игнорирует семантику речи.
Я не силен в семантике, но здесь можно попробовать порассуждать. Что, собственно, можно понимать под приданием понятию значения. Выражения, соответствующие единичным предметам (например "этот стол") в конечном итоге сводятся к сумме сенсорных данных и объединению этих данных в некое единое целое (гештальт). Передача компьютеру сенсорных данных вполне может осуществляться посредством специальных устройств (камер, микрофонов и т.п.), тогда как для структурирования этих данных можно применить некий алгоритм, заданный человеком. Если же мы говорим об абстрактных понятиях (стол вообще), то под приданием им значений можно понимать вербальное определение этого понятия, которое к тому же может соотноситься со всей совокупностью эмпирических предметов (а может и не соотноситься, если понятию не соответствует ничего эмпирически наблюдаемое). И так далее. Разумеется, всё это не продумано до конца, но мне кажется, что отрицать за компьютером возможности придания словам и выражениям смыслового содержания - не вполне обосновано, по крайней мере на основании данного мысленного эксперимента.


  • 1
Гы! Знаешь, где я про это читала? У Пелевина, в книжке Snuff.

Не читал. Но Пелевин любит позаигрывать с модными философскими идеями, так что не удивительно.

Кстати, сама то что думаешь?:)

Замечательный блог, однако!

Если под семантикой понимать смыслы и значения, то не может быть общей однозначной таблицы "правил" сопоставления слова, смысла и вещи.

Набор ооотвествий нечёткий, постоянно меняет границы, в зависимости от контекста, времени и предыдущей суммы знаний.

Именно поэтому возможно развитие и приспособление человека.

По крайней мере, я так это вижу.

В этом смысле, если компьютер сможет сам обучаться, определять правила а также менять их в зависимости от ситуации - придавать происходящему смысл, тогда он сможет стать искусственным интеллектом в сёрлевском смысле.

Насчёт того, как с этим обстоят дела у компьютеров сейчас, я не очень в курсе.

То есть, я понимаю, что уже можно обучиь компьютер распознавать вещи, например, названный вами стол, или цвета. А также подстраиваться под ситуацию в чётко определённых границах.

Однако смысловая сфера не сводится к именованию предметов материального мира, и даже к созданию абстракций, обозначающих классы предметов.

П.С.: Зафрендил

Да, соглашусь. В принципе, эта нечеткость терзала многих, начиная с Лейбница и заканчивая ребятами из Венского Кружка. Но попытки создать язык, в котором связь между знаком, смыслом и означаемым была бы четкой - как-то не удались.

С другой стороны, вопрос в том, с какой целью создается ИИ. Скажем, создать ИИ полностью эквивалентный человеческому все равно не получится - хотя бы потому, например, что человеческий интеллект не есть "вещь в себе", и связан с организмом в целом. Скажем, если использовать схему нотат-денотат-концепт, то для понимания эмоций у ИИ будет только первая и третья компоненты. Но в рамках научной теории, например, как правило эти связи носят более или менее определенный характер. Поэтому для использования ИИ в рамках развития научного знания или управления какими-то технологическими процессами, это не является серьезной преградой, по-моему.

"Однако смысловая сфера не сводится к именованию предметов материального мира, и даже к созданию абстракций, обозначающих классы предметов."

Верно. Как мы помним из Витгенштейна: только высказывания обладают смыслом. Имена просто указывают на предметы.

Взаимно

>> Но попытки создать язык, в котором связь между знаком, смыслом и означаемым была бы четкой - как-то не удались.

На мой взгляд, она и не может удасться. Естественный язык в принципе не до конца чёткий и изменчивый.

>> Скажем, если использовать схему нотат-денотат-концепт, то для понимания эмоций у ИИ будет только первая и третья компоненты.

Я бы ставил вопрос шире. Вся сфера человеческих отношений на уровне "китайской комнаты" оказывается недосягаемой. И повседневность, которая первичная реальность.

>> Поэтому для использования ИИ в рамках развития научного знания или управления какими-то технологическими процессами, это не является серьезной преградой, по-моему.

Опять же, это до тех пор, пока находиться в рамках заранее заданных схем. Однако, когда ситуация меняется, или когда необходимо создать что-то новое - а в научных исследованиях и в управлении тоже есть место для творчества - то в рамках исключительно жёстких правил сопоставления ввода и вывода это невозможно.

>>Верно. Как мы помним из Витгенштейна: только высказывания обладают смыслом. Имена просто указывают на предметы.

Я даже не об этом. Контекст, потребности и т.д. принципиально определяют субъективный смысл и значение.

Тот же стол, в зависимости от человека и его состояния, может нести совершенно разный смысл.

Например, человек говорит "Вот стол". При этом он может иметь в виду: (1)Мебель, за которой можно поработать. Не самая удобная, но та, что сейчас есть. (2) Очень стильная и со вкусом штучка, хорошо подходит к интерьеру, а это главное. (3) Старый стол, ещё от дедушки достался. Память. (4) Нет свободных стульев, о, сяду-ка я на стол. (5) Какй грязный стол, а через пять минут гости придут. (6) Холодно, голодно, дров нет. Придётся порубить его на дрова и есть с табуретки.

Подобных смыслов стол может нести бесконечное множество, в зависимости от ситуации и человека. Все эти смыслы на практике неотделимы даже от банальных предметов и прямо влияют на то, как человек вопринимает эти вещи, и что он будет с ними делать.

И это штука, которую, наверное, непонятно как формализировать для ИИ.

Впрочем, я не рискну говорить, что дело только в этих нюансах. Их наверняка больше.


Edited at 2013-03-16 05:16 pm (UTC)

Феноменологическоя теория смысла сама по себе тупикова. Без телеокибернетического подхода в этом тупике умрет ещё много и философеров и инженеров.
В ТК "смысл" может быть определён как совокупность моторных следствий, вызыванный данным сенсорным сигналом. Этот самый "стол" имеет "смысл" в виде сотен эффекторных сценариев, в которых он фигурирует "сесть за стол", "починить стол", "удариться об стол"... В сумме эти сенсорно-моторные комплексы и формируют "понятие стола".

Констатировать, что компьютер что-то "понимает" - это значит констатировать, что у него есть сравнимо богатый и комплиментарный с человеком набор таких поведенческих сценариев, т.е. и человек и комп реагируют подобно и предсказуемо на некие сигналы. Причём, для сильного ИИ это поле деятельности должно быть сравнимо по ширине спектра с человеческим, а это означает существование структур памяти для сравнимого количества когнитивных и сенсорно-моторных паттернов. А это очень много.

У сильного ИИ нет пока шансов стать реальным, пока наука не усложниться как минимум на порядок-два от своего нынешнего состояния. То, что сейчас понимают под "сознанием" - это верхушка айсберга. Человек ещё плохо знает границы своего незнания на этот счёт.

Мне кажется, что определение смысла через моторные реакции - это скорее операционализация понятия "смысл", а не его дефиниция. Т.е. приментительно к человеку это понятие, вероятно, действительно может быть операционализировано подобным образом. Но это не означает, как мне кажется, что отсюда с необходимостью следует, будто "смысл", который подобным образом не операционализируется - сразу уже и не смысл.

Дело в том, что "операционализация", доведённая до эпистемологического предела, не оставляет других смыслов "смысла". Если мир - это движение, то он всё есть движение.
Вопрос, на что в нём клеить бирку "смысл" - дело исключительно хозяйское: плохо наклеишь, потеряешь в двигательной способности.

  • 1
?

Log in