китайском эксперименте, дадите мне китайские символы и инструкции по-английски для соотношения одних китайских символов с другими китайскими символами и выдачи “на-гора” третьих китайских символов. Представьте, что, хотя мне об этом ничего не известно, некоторые китайские символы поступают ко мне из телевизионной камеры, прикрепленной к роботу, а некоторые китайские символы, произведенные мной, приводят в действие моторы внутри робота, двигающие его руками и ногами. Важно подчеркнуть, что я лишь манипулирую формальными символами. Я получаю “информацию” от “перцептуального” аппарата робота и даю инструкции его “моторному” аппарату, ничего об этом не подозревая. Я являюсь “гомункулюсом” этого робота, но, в отличие от традиционного гомункулюса, я не знаю, что происходит. Я не понимаю ничего, кроме правил манипуляции символами. Я утверждаю, что в этом случае робот лишен какой бы то ни было интенциональности; он просто передвигается в результате действия его электрических соединений и программы. Кроме того, представляя в данном случае эту программу, я также лишен относящихся к делу интенциональных состояний. Я только следую формальным инструкциям по манипуляции формальными символами.
3. Ответ имитации мозга (Беркли и Массачуссеттский Технологический институт). “Предположим, что мы разработали программу, которая не представляет информацию о мире, подобную информации в текстах Шенка. Вместо этого программа в точности симулирует процесс нервной деятельности в мозгу китайца, когда тот понимает рассказы по-китайски и отвечает на вопросы о них. Машина принимает в качестве входных данных рассказы и вопросы о них, симулирует формальную структуру мозгов китайца, понимающего эти рассказы, и производит в качестве выходных данных китайские символы. Мы можем даже вообразить, что вместо одной-единственной программы в машине работают множество параллельных программ, подобно тому, как предположительно работает человеческий мозг в процессе понимания человеческого языка. В таком случае нам придется признать, что машина понимает рассказы. Если мы откажемся это сказать, не придется ли нам отказать в понимании и самому китайцу? На уровне синапсов, какая разница между программой нашего компьютера и программой мозга китайца?”
Прежде, чем ответить на это возражение, я замечу, что это очень странное возражение для любого сторонника ИИ (или функционализма и т.п.). Мне казалось, что идея сильной версии ИИ состоит именно в том, что для понимания работы разума не обязательно понимать, как работает мозг. Я думал, что основная гипотеза сторонников этой версии состоит в том, что существует некий уровень мыслительной деятельности, на котором производятся манипуляции с формальными элементами. Именно это является основой разума и может быть реализовано в различных мозговых процессах, так же, как любая компьютерная программа может работать на различной аппаратуре. Сильная версия ИИ считает, что программа для компьютера — то же, что разум для мозга. Таким образом мы можем понять разум, не вдаваясь в нейрофизиологию. Если бы для занятий ИИ нам было бы необходимо понять, как работает мозг, то нам вообще не понадобилась бы такая наука, как ИИ. И все же такой близкий подход к работе мозга еще не достаточен, чтобы произвести понимание. Чтобы в этом убедиться, представьте себе, что вместо человека, работающего с формальными символами, в комнате сидит человек, оперирующий системой водопроводных труб, соединенных клапанами. Когда он получает китайские символы, он сверяется с написанной по-английски программой, и начинает открывать и закрывать определенные клапаны. Каждое соединение соответствует синапсу в мозгу китайца, и вся система настроена так, что после всех манипуляций с клапанами нужные китайские символы появляются с другого конца труб.
Где в этой системе понимание? Она принимает в качестве входных данных китайские символы, симулирует формальную структуру китайских синапсов и выдает другой набор китайских символов. Но человек явно не понимает китайского, так же, как не понимают его водопроводные трубы; если мы примем гипотезу, кажущуюся мне абсурдной, что каким-то образом человек
4. Комбинированный ответ (Беркли и Стэнфорд). “Хотя сами по себе три предыдущих ответа не являются достаточно убедительным опровержением контрпримера китайской комнаты, взятые в совокупности, они весьма убедительны и решают дело. Представьте себе человекообразного робота с компьютером в виде мозга, расположенном в его черепной коробке, представьте, что программа этого компьютера в точности имитирует синапсы мозга, представьте, что поведение этого робота неотличимо от поведения человека. Теперь представьте все это как единую систему, а не как компьютер с входными и выходными данными. Безусловно, в таком случае вы должны будете согласиться с тем, что система имеет интенциональность”.
Я совершенно согласен с тем, что в таком случае гипотеза о том, что робот обладает интенциональностью, кажется вполне рациональной — если мы больше ничего не знаем об этой системе. В действительности другие элементы этой комбинации, кроме внешнего вида и поведения, к делу не относятся. Если бы мы могли построить робота, чье поведение было бы в течение долгого времени неотличимо от человеческого поведения, мы могли бы приписать ему интенциональность. Нам вовсе не нужно было бы знать заранее, что его компьютерный мозг представляет собой формальную аналогию с человеческим мозгом.
Но я не вижу, как это может помочь утверждениям сторонников сильной версии ИИ. И вот почему: согласно этой версии формальная программа с правильными входными и выходными данными является достаточным условием и составной частью интенциональности. Как писал Ньюэлл (Newell, 1979), основой ментального является деятельность системы физических символов. Но наше признание интенциональности робота в этом примере не имеет ничего общего с формальными программами. Оно основано на предположении, что если робот выглядит и действует достаточно похоже на нас, то мы должны предположить, пока не доказано обратное, что у этого робота есть ментальные состояния, подобные нашим; что эти состояния обуславливают его поведение и им выражаются; что робот имеет некий внутренний механизм, способный производить эти состояния. Если бы мы знали, как иначе можно объяснить его поведение, мы бы не стали приписывать ему интенциональность, в особенности если бы мы знали о наличии у него формальной программы. И именно в этом — смысл моего предыдущего ответа на возражение II.
Представьте, что нам было бы известно, что поведение робота полностью определяется спрятанным внутри него человеком, который получает неинтерпретированные формальные символы от сенсорных рецепторов робота и посылает неинтерпретированные формальные символы его двигательному аппарату. Человек производит эти формальные манипуляции согласно неким правилам. Далее, представьте себе, что человеку ничего не известно о роботе — он знает лишь то, какое действие производить с данными бессмысленными символами. В этом случае мы рассматривали бы робота как хитроумное механическое приспособление. Гипотеза о том, что у этого приспособления есть разум, оказалась бы необоснованной и ненужной. У нас больше не было бы причины приписывать интенциональность роботу или системе, частью которой тот является (за исключением, разумеется, интенциональности человека, манипулирующего символами). Формальная манипуляция символами продолжается, входные данные соотносятся с выходными согласно правилам, но единственным реальным фокусом интенциональности является человек, и человек этот понятия не имеет ни о каком относящемся к делу интенциональном состоянии. Например, он не
Чтобы понять это последнее утверждение, сравним этот случай с теми, где мы естественно приписываем интенциональность членам некоторых других человекообразных групп, таким как различные обезьяны и приматы, и домашним животным, таким как собаки. Существуют, грубо говоря, две причины, по которым мы находим это естественным. Во-первых, мы не можем объяснить поведения животного, не приписав ему интенциональности. Во-вторых, мы видим, что эти животные сделаны из того же материала,