Смекни!
smekni.com

Когнитивная наука Основы психологии познания том 2 Величковский Б М (стр. 86 из 118)

Но все же, как правило, в большинстве случаев традиционные эк­спертные системы остаются на уровне прототипов, не превращаясь в коммерческий продукт. Их применимость ограничивается проблемой юридической ответственности, как в случае неправильно поставленно­го медицинского диагноза, а также недостаточной гибкостью. Одной из неприятных особенностей практически всех систем является возника­ющее вблизи границ области экспертизы «обвальное» ухудшение ре­зультатов. Надежды возлагаются поэтому на гибридные архитектуры, прежде всего на искусственные нейронные сети. Последние демонстри­руют при ухудшении условий работы плавное снижение эффективнос­ти (англ. graceful degradation — см. 2.3.2).

Вопрос состоит в том, можно ли, в свете этих данных, считать пра­вильным вычислительное понимание мышления и, шире, познания? В отношении самих процессов, ведущих к решению, в этом нет никакой уверенности. В литературе сосуществует множество различных систем описания вычислений, и они постоянно развиваются, как, например, в случае возникших сравнительно недавно языков объектно-ориентиро­ванного программирования {ООП). Основное в этих языках — сохранение внешней формы при изменении свойств: программные структуры меня­ют свое содержание в зависимости от того, какие «объекты» (либо, в бо­лее современной, но менее адекватной терминологии, «классы») под­ставляются в них14. Однако в целом развитие логических оснований вычислительного подхода имеет собственную динамику. Оно направле­но не на симуляцию человеческих достижений, а на их дополнение, причем акцент делается на способности вычислительных устройств к чрезвычайно быстрому перебору вариантов15.

14 При этом на экране может оставаться та же привычная картинка, что, конечно же,
удобно для человека-пользователя. ООП привлекательно тем, что оно сделало шаг на­
встречу простейшим аксиомам психологии человека. Внешняя идентичность при изме­
нении функционального содержания соответствует, в частности, смене социальных ро­
лей одной и той же личности. Интересно, что для этого шага создателям ООП пришлось
отказаться от числовых структур как основы и перейти к понятиям более высоких типов.
Если в обычном программировании преобразуются данные, то в ООП преобразуются
функции и действия над «объектами».

15 Исследователям всегда было свойственно считать достигнутый в их время техни­
ческий аппарат идеальным средством объяснения функционирования мозга и психики
(Бернштейн, 2003). В начале 20-го века такой моделью считалась телефонная станция,
позднее возникли аналогии с радиопередачей, голографией, архитектурой компьютера и

306 все новыми разновидностями компьютерных программ. Трудно сказать, какие возмож-


С точки зрения сравнения результатов искусственных и естествен­ных интеллектуальных достижений, ответ, несомненно, выглядит ина­че. В ряде случаев, как, например, в случае компьютерных программ игры в шахматы, программные системы явно превзошли человека16. Это развитие было предсказано свыше полувека назад. В 1950 году Алан Тьюринг опубликовал статью «Вычислительные машины и интеллект», где он высказал предположение, что к концу 20-го века достижения программируемых компьютеров сравняются с результатами решения задач человеком (см. 2.1.1).

В той же классической статье Тьюрингом была описана процедура возможной проверки такого соответствия. Эта процедура известна се­годня как тест Тьюринга. Если в диалоге с невидимым партнером чело­век не может достоверно определить, имеет ли он дело с собратом по ра­зуму или же с вычислительным устройством, то последнее успешно выдержало этот тест. В ряду серьезных и полусерьезных попыток прове­дения теста Тьюринга выделяются эксперименты известного критика ра­бот в области искусственного интеллекта Дж. Вейценбаума (1982) с отно­сительно простой, включавшей всего лишь несколько сот строчек текста программой ELISA, которая позволяла длительное время поддерживать заочный диалог с человеком. При этом она производила на собеседников впечатление живого человека. Позднее (и опять же скорее в критических целях) Вейценбаум адаптировал свою программу для целей роджериан-ской психотерапии, назвав ее DOCTOR. Многие участники опытов Вей­ценбаума не только не чувствовали дискомфорта, но и предпочитали иметь дело с компьютером, а не с реальным психотерапевтом.

9.2.2 Философия искусственного интеллекта

Слабость теста Тьюринга состоит в том, что это бихевиористский тест. Для когнитивной науки важен анализ интенций и ментальных репре­зентаций, обеспечивающих решение задачи. Неоменталистским отве­том на тест Тьюринга и успехи вопросно-ответных программ стал мыс­ленный эксперимент, описанный американским философом Джоном Сёрлом (Searle, 1991). Он предложил представить человека, находяще­гося в закрытом помещении. Через щель в комнату поступают письмен­ные вопросы на китайском языке, о котором этот человек не имеет ни

ности для аналогий могут возникнуть в среднесрочной перспективе (см. 9.4.3). С задачей когнитивного моделирования в настоящее время непосредственно связано только разви­тие в области искусственных нейронных сетей (см. 2.3.3).

·" В 1997 году компьютерная программа впервые выиграла партию у чемпиона мира по
шахматам. Интересно, что соответствующие программмы игры го далеко не столь сильны.
Важнейшей причиной этого является более высокая комбинаторная сложность этой игры,
ставящая перед компьютером (и программистом) проблему практической вычислимости. 307


308


малейшего представления. Ему также не известна тематика вопросов. К счастью, при нем находится достаточно полный китайско-китайский толковый словарь. Найдя в словаре иероглифы, соответствующие тол­кованию иероглифов в записках, герой этой истории записывает их в качестве ответа и передает обратно через дверную щель. Для внешнего наблюдателя весь процесс может выглядеть как участие закрытого в «ки­тайской комнате» человека в дискуссии экспертов... по истории сред­невекового Китая. Проблема, однако, состоит в том, что, симулируя ра­боту компьютера и практически решая коммуникативную задачу, человек в комнате совершенно не осознает интенциональное содержа­ние своей деятельности.

Это феноменологическое рассуждение (если нет интенционально-сти, то нет сознания, а следовательно, нет и человеческого мышления) служит одним из нескольких обсуждаемых в литературе радикальных аргументов против применения вычислительного подхода в психологии и против самой возможности построения искусственного интеллекта. Но аргументация Сёрла не безупречна. Слабым ее пунктом является рассмотрение заведомо ограниченной системы индивидуального созна­ния и мышления. Хотя человек в комнате, по определению, ничего не знает о содержании принимаемых и передаваемых сообщений, нельзя отрицать, что фактической основой его работы служит глубокое пони­мание языка и тематики обсуждения создателями толкового словаря и участниками ведущейся дискуссии. Используя нейрокогнитивную ана­логию, можно уподобить сёрловского оператора частной подсистеме большого мозга. Так, зона Брока, играя важную роль в экспрессивном речевом общении (см. 7.3.3), тоже, по-видимому, «не понимает» наме­рений и содержания речи своего обладателя.

В последние десятилетия стали появляться примеры, как бы зер­кально симметричные аргументу Сёрла. Речь идет об успешном реше­нии задачи компьютером при отсутствии понимания природы этого решения человеком. Самым известным примером такого рода являет­ся доказательство теоремы о четырех красках. Еще в середине 19-го века было высказано предположение, что для раскраски карты таким образом, чтобы две имеющие общую границу области (страны) имели разную окраску, должно быть достаточно четырех красок. Несмотря на усилия выдающихся математиков, эта теорема не могла быть доказана вплоть до 1977 года, когда ее «доказала» относительно простая компью­терная программа, написанная К. Аппелем и В. Хакеном. Путем исчер­пывающего перебора множества возможных сочетаний границ, про­грамма продемонстрировала, что во всех случаях четырех красок действительно оказывается достаточно. Профессиональное сообщество математиков отнеслось к этому событию с большой долей скепсиса, так как, во-первых, остались непонятными концептуальные основания данного вывода, а во-вторых, любая программа, как было ясно уже в то время (до появления продукции фирмы Microsoft), может содержать


ошибку. Собственно «человеческое» доказательство теоремы появилось лишь спустя 20 лет, в 1997 году (MacKenzie, 2001).

Ситуации непонятности машинного решения для человека возника­ют, например, при распознавании объектов с помощью искусственных нейронных сетей, поскольку характер изменений в сетях в процессе обу­чения слишком сложен, чтобы его можно было затем проследить анали­тически. Более того, эпизоды непонимания содержания производимых компьютерными системами операций и вытекающих из них выводов весьма частотны в реальной жизни — как в профессионально-техноло­гическом контексте (проблема ситуативного сознания у пользователей полуавтоматизированных систем — см. 2.1.2), так и во все большей мере в повседневных бытовых условиях. Непонимание возникает здесь, в ко­нечном счете, между пользователем и разработчиком технических сис­тем. Но стремительное усложнение этих систем и их намечающееся ав­тономное взаимодействие — автомобилей между собой и со знаками дорожного движения, домашних приборов с системой энергообеспече­ния дома и т.д. — заставляет и самих разработчиков опираться на ком­пьютерные средства поддержки программирования и принимаемых при этом решений (как в случае систем CAD Computer Aided Design).