Каждый ответ испытуемого имеет определенное значение, и, однако, экспериментирование не может ограничиться двумя ответами, каждый из которых соответствует двум степеням независимой переменной, чтобы решить, можно ли приписать различие ответов различию переменной. Подобный вывод возможен в физике, иногда в физиологии, но он немыслим в психологии, потому что никогда нельзя проверить все переменные S и P достаточным образом.
Варьировать одну и только одну переменную не всегда возможно, и мы уже несколько раз сталкивались с этой трудностью. Добавим теперь, что этот тип эксперимента не является идеальным, потому что, как правило, наше поведение определяется различными переменными, действующими одновременно. Это соображение в соединении с возможностями, открываемыми дисперсионным анализом, привело психологов (после агрономов и биологов) к применению все более и более сложных планов эксперимента. Действительно, всякий эксперимент организуется согласно какому-то плану, который является не чем иным, как логической схемой, определяющей характер и порядок различных фаз эксперимента. Самый простой план сводится к сравнению результатов, соответствующих двум степеням независимой переменной. Эти две степени могут соответствовать какому-то количественному (например, две длительности или две интенсивности) или качественному (время реакции на звук или на свет) различию. Крайним случаем качественного различия является отсутствие или наличие этой переменной. Для каждой степени переменной получаем популяцию измерений на одном или нескольких испытуемых. Сравнение осуществляется посредством статистического критерия (t Стьюдента или c²), позволяющего сказать, разрешают ли результаты, полученные в той или иной ситуации, отбросить нулевую гипотезу, то есть рассматривать две популяции измерений как не принадлежащие к одной гомогенной совокупности. В этом случае различие результатов двух популяций измерений объясняется при данном пороге вероятности различием степеней независимой переменной. Когда имеется больше двух степеней независимой переменной, попарное сравнение групп результатов значительно длиннее и может привести к ошибкам.
Очевидно, в функциональных экспериментах, где изменения независимой переменной носят количественный характер, почти не возникает трудностей. Крайне важно знать ход изменения зависимой переменной, если хотите, закон ее изменения. Так обстоит дело, например, с кривой заучивания или кривой забывания. Иное дело, однако, в факторных экспериментах, когда различия степеней независимой переменной носят качественный характер, что является очень частым случаем. В таком случае нужно определить соответствующую роль каждой из них. Дисперсионный анализ, которым мы обязаны Фишеру (1925), позволяет во всех случаях, когда мы имеем несколько популяций измерений одной и той же независимой переменной, соответствующих различным условиям, определить значимую роль той или иной из них. Его принцип прост и аналогичен принципу t Стьюдента. Вначале рассматривают все популяции измерений как принадлежащие к одной и той же совокупности, то есть принимают нулевую гипотезу. Затем вычисляют общую дисперсию совокупности, которая является не чем иным, как суммой дисперсий различных популяций измерений, как это можно доказать. Сравнивают две оценки дисперсий измерений. Одна вычисляется без учета возможных различий между средними выборок измерений, полученных для различных значений независимой переменной. Другая, кроме вариаций, влияющих на первую оценку («ошибку»), учитывает эти различия средних. Эти две оценки должны быть равными (их отношение или отношение F Снедекора принимает в таком случае значение 1.00), если различия средних нулевые, то есть если эта независимая переменная не влияет на данный феномен. Фактически же можно требовать только, чтобы отношение F не было значительно выше 1.00, и таблица Снедекора позволяет узнать, так ли это.
Наконец, дисперсионный анализ позволяет сказать, оказывает ли независимая переменная особое влияние, не измеряя непосредственно это влияние. Он соответствует, следовательно, методу обнаружения влиятельных переменных.
Дисперсионный анализ открыл новые перспективы перед экспериментированием в науках, основанных на предположениях. До сих пор трудно было планировать эксперименты, предполагающие более одной независимой переменной. Как мы видели, в таком случае проблема состояла в том, чтобы нейтрализовать действие второй переменной, как правило, переменной порядка, чтобы избежать эпизодических влияний ситуаций, вызывающих либо облегчение, либо усложнение задачи, короче — искажающих результаты.
Еще один шаг вперед был сделан, когда для проверки действия независимой переменной стали применять различные, но равноценные группы испытуемых, причем одни из них подвергались воздействию этой переменной, а другие — нет. Почему же в таком случае не измерить одновременно действие нескольких независимых переменных, если обеспечена равноценность групп? Именно таким образом Фишер разработал метод планирования эксперимента сначала применительно к агробиологии. В этой дисциплине плодотворное экспериментирование должно учитывать одновременно по крайней мере почву, удобрения и семена. Дорого и часто безуспешно было бы варьировать только одну из этих переменных. Планирование эксперимента было введено в психологию около 1940 года и сейчас составляет часть ее обычной методологии.
Обработка и обобщение результатов.
Самым захватывающим этапом экспериментирования является, бесспорно, тот, когда сырые данные посредством применения ряда приемов, в которых большую роль играет воображение и научная культура экспериментатора, превращаются в значимые результаты. Эта фаза экспериментирования включает в себя три основных момента: обработку результатов, их объяснение и обобщение.
Учитывая многочисленность и иногда разрозненность данных, первая задача экспериментатора состоит в установлении порядка, то есть в классификации полученных результатов и такой их группировке, которая позволила бы экспериментатору охватить их единым взглядом. Эта классификация должна быть, очевидно, проведена исходя из независимых переменных, но не следует забывать, что таких классификаций может быть несколько. Для того чтобы выявить значение полученных результатов, нужно усилить их освещение.
Три основных способа позволяют осуществить эту группировку полученных данных.
А) Таблицы. Их применение общеизвестно. Для того чтобы быть полезными, они должны быть ясными. Результаты могут быть сгруппированы в них в виде сырых значений или в виде таблиц частот или процентов. В каждом случае нужно найти самую репрезентативную и наиболее показательную классификацию.
Б) Графики. Мы не будем останавливаться на этой процедуре, популяризированной всей современной техникой. Нужно, однако, подчеркнуть, что графики имеют то достоинство, что устанавливают зависимость между двумя или несколькими переменными и, превращая цифры в линии или блоки, лучше позволяют глобально охватить множество результатов, чем таблицы, часто перегруженные слишком полной информацией. Однако этот способ имеет одно неудобство. Если он символизирует большое число результатов, то это изображение связано с принятым масштабом. Различие в 1 мм при масштабе один сантиметр к метру проходит незамеченным. Оно становится символически значительным, если (посредством, как правило, первоначального изменения) масштаб становится один сантиметр к миллиметру.