Мозг и кибернетические моделирующие устройства принадлежат к самоорганизующимся динамическим функциональным системам. Для правильного функционирования системы в ней необходимо постоянство определенных параметров. Регулирование осуществляется по замкнутому циклу, при котором посредством обратной связи система получает сигнал о степени полезности действия. Между мозгом и моделирующим устройством существует структурно-функциональная аналогия, заключающаяся в том, что определенной структуре соответствует определенная функция.
Субстанциональные теории психического стали терять популярность по мере того, как дальнейшее развитие наук, таких как физика, математика и, в особенности, кибернетика, показало, что функции, как правило, не столь тесно связаны с субстратом в котором или посредством которого они реализуются. Одна и та же функция (описываемая, например, одними и теми же математическими формулами) может быть реализована различными способами и в различных по своим физическим свойствам субстратах. Выяснилось, что функция больше зависит не от специфических свойств материального субстрата, а от его структурной организации. Выяснилось также, что сложные функции можно представить в виде суперпозиции некоторого фиксированного множества простых функций. В математике подобный подход получил развитие в теории алгоритмов (теории рекурсивных функций).
Однако, при моделировании мышления в технической модели воссоздается не мыслительный процесс, а лишь его результат. Совершенно прав, по моему мнению, В.А. Веников, утверждающий, что при моделировании живых систем между моделью и прототипом проявляется сходство по отдельным функциям и несходство по существу.
Несмотря на это стала выдвигаться, по словам Б.М. Кедрова, “идея о сведении мозга к чисто физической системе, о мнимой замене мозга машиной”. Так возникла проблема, получившая первоначальную формулировку “может ли машина мыслить?”. И нередко признание возможности наделения моделирующих устройств сознанием стало ассоциироваться с материализмом, а отрицание такой возможности- с идеализмом. Столь категоричная постановка вопроса неправомерна: между живыми системами и моделирующими устройствами есть и общность, которую невозможно отрицать, и специфика, которой нельзя пренебречь. А для проведения сравнительного анализа этих двух объектов необходимо в первую очередь конкретизировать терминологию описания.
Те сведения о мозге, которые нам дает нейрофизиология и нейроанатомия, по большей части укладываются в схему, согласно которой мозг есть некая разновидность "сетевого нейрокомпьютера", т.е. представляет собой нечто подобное сети взаимосвязанных элементарных вычислительных устройств, параллельно обрабатывающих большие массивы сенсорной информации. Нервная клетка (нейрон) рассматривается с этой точки зрения как основной рабочий элемент "нейрокомпьютера", а его функция сводится к простой суммации входных сигналов (нервных импульсов, поступающих от других нейронов) с различными "весовыми коэффициентами". Если сумма превышает определенный порог, то нейрон генерирует "потенциал действия" - стандартный импульс, который может быть адресован десяткам тысяч других нейронов. Функция долгосрочной памяти в этой модели обеспечивается устойчивыми изменениями проводимости межнейронных контактов - синапсов (так называемая "коннекторная" теория долгосрочной памяти). Еще в 40-х годах было показано ( У.С. Маккаллок, У.Питс), что сеть, построенная из элементов, аналогичных по своим функциональным свойствам нейронам, способна, при условии наличия достаточно большого числа нейроподобных элементов, выполнять функцию универсальной вычислительной машины, т.е. в соответствии с тезисом Черча, вычислять все, что вычислимо.
Схематизм такого подхода очевиден. Заметим, что нейрон - это по компьютерным меркам чрезвычайно медлительный, ненадежный, обладающий огромной латентностью и рефрактерностью функциональный элемент. (Достаточно сказать, что время переключения на одном нейроне составляет величину порядка одной сотой секунды, максимальная частота импульсации не превышает нескольких сотен герц ). По всем этим параметрам нейрон не выдерживает никакой конкуренции с транзистором или микросхемой. Кроме того, скорость передачи нервных импульсов внутри мозга примерно в три миллиона раз меньше, чем скорость передачи электромагнитных сигналов между элементами компьютера. Каким образом агрегат, состоящий из столь несовершенных элементов, может не просто конкурировать с электронным компьютером, но и существенно его превосходить при решении определенного рода задач (распознавание образов, перевод с одного языка на другой и т.п.)? Обычный ответ - за счет использования принципа параллельной обработки информации. Однако, интенсивные исследования в этой области за последние десятилетия показали, что распараллеливание в общем случае дает лишь сравнительно небольшой выигрыш в скорости вычислений (не более, чем на два-три порядка). Причем этот факт мало зависит от архитектуры вычислительных систем. Кроме того, далеко не все задачи допускают распараллеливание вычислений. Далее, вычислительную мощность мозга в целом можно приблизительно оценить числом событий, которые могут происходить в нем за одну секунду (здесь имеются в виду лишь информационно значимые события, например генерация потенциала действия нейроном). Общее число таких значимых событий оценивается величиной порядка сотен миллиардов, что вполне сравнимо с числом операций в секунду в большой параллельной компьютерной системе. То есть и с этой точки зрения мозг ничем не превосходит компьютер. Остается предположить, что мозг, наряду с известными нам из физиологии электрохимическими процессами, использует для обработки информации и какие-то иные физические принципы, которые и позволяют ему достичь большей по сравнению с компьютером "вычислительной эффективности".
Перейдем теперь к анализу проблемы моделирования отражательных функций мозга. В процессе развития и усложнения форм движения материи появляются и соответствующие им формы отражения. Поэтому в результате развития может возникнуть живая, ощущающая материя, обладающая аналогичными человеку свойствами. Л. фон Берталанфи подчеркнул отличие живого организма от машины, заключающееся в том, что живой организм развивается в направлении увеличения дифференциации и негомогенности и может корректировать “шум” в более высокой степени, чем это имеет место в коммуникационных каналах неживых систем – оба эти свойства организма являются результатом того, что организм представляет собой открытуюсистему. Человеку и устройству свойственны различные формы движения материи, а потому и формы отражения у них качественно различны. Техническим моделям присущи низшие формы движения материи, а человеческому организму – также биологическая и социальная.
Некоторые авторы утверждают, что хотя современные моделирующие устройства и не обладают чертами сознания, из этого положения нельзя сделать вывод о невозможности существования неорганической материи, обладающей свойствами мышления. При этом высказывается мнение, что такое свойство может появиться в ходе усложнения организации моделирующего устройства, т.е. на базе количественных изменений произойдут качественные изменения.
Между структурой и субстратом мозга мыслящего субъекта и функцией сознания, мышления существует органическая связь. В моделирующих устройствах вид связи функции со структурой и субстратом принципиально иной чем у человека, здесь материальный субстрат уже не играет главной роли и все внимание направлено на структуру, способу организации логических сетей. Такая ситуация сохраняется по сей день, хотя ограниченность такого подхода становится все более очевидной. Является ли столь пренебрежительное отношение к субстратным особенностям обоснованным? Конечно первоначальное значение понятия субстратный подхода, исходящее из того, что для каждого свойства необходим соответствующий субстрат, существующий независимо от остального мира, изжило себя, поскольку свойства, как оказалось, не имеют субстанционального характера, они являются результатом взаимодействия объектов. Один и тот же субстрат в разных условиях обнаруживает разные свойства. В единой системе “субстрат-структура-свойство” от одного из элементов можно отвлечься лишь в строго определенных пределах. Какого бы высокого уровня не достигли функциональные исследования, рано или поздно возникает необходимость проникновения на следующий уровень вплоть до субстрата. Познание лишь структуры не может обеспечить раскрытия специфики живых систем, т.к. познание с точностью до изоморфизма не может быть исчерпывающим, в противном случае любой объект может быть разложен без остатка “на совокупность структур из чистых отношений”. Кибернетический подход рассматривает структуры и функции в той мере, в какой они являются общими у разных форм движения материи, поэтому для него характерно отвлечение от конкретных материальных процессов. В рамках наук изучающих специфику живого, отвлечение от конкретной формы движения материи невозможно. При анализе познавательного процесса гносеология абстрагируется от психофизиологических механизмов, посредством которых реализуется этот процесс. Но из этого не следует, что для построения систем искусственного интеллекта эти механизмы не имеют значения. Вообще говоря, не исключено, что механизмы, необходимые для воплощения неотъемлемых характеристик интеллектуальной системы, не могут быть реализованы в цифровых машинах или даже в любой технической системе, включающей в себя только компоненты неорганической природы. Иначе говоря, в принципе не исключено, что хотя мы можем познать все гносеологические закономерности, обеспечивающие выполнение человеком его познавательной функции, но их совокупность реализуема лишь в системе, субстратно тождественнойчеловеку.