Скиннер считал, что оперантное поведение характерно для повседневного научения. Поскольку поведение, как правило, носит оперантный характер, то наиболее эффективным подходом к науке о поведении является изучение обусловливания и угасания оперантпого поведения.
Классическая экспериментальная демонстрация заключалась в нажатии на рычаг в скиннеровском ящике. В этом эксперименте крыса, лишенная пищи, помещалась в ящик и получала полную возможность исследовать его. В ходе исследований она неизбежно должна была задеть рычажок, который приводил в действие механизм, выдвигающий полочку с пищей. После получения нескольких порций пищи, которые должны были служить подкреплением, у крысы довольно быстро формировался условный рефлекс. Обратите внимание, что поведение крысы (нажатие на рычаг) оказывает воздействие па окружающую среду и является инструментом приобретения пищи. Зависимая переменная в этом эксперименте проста и понятна: это скорость реакции.
На основании этого эксперимента Скиннер сформулировал свой закон приобретения[93], который гласит, что сила оперантного поведения возрастает, если поведение сопровождается подкрепляющим стимулом. Несмотря на то, что для формирования быстрой реакции нажатия на рычажок требуется практика, ключевым параметром все — таки является подкрепление. Практика сама по себе ничего не дает: она только предоставляет возможность возникновения дополнительного подкрепления.
Закон приобретения Скиннера отличается от положений о научении у Торндайка и у Халла. Скиннер вообще не касался таких последствий подкрепления, как боль — приятное ощущение или удовольствие — неудовлетворение, как это делал Торндайк. Скиннер так же не пытался интерпретировать подкрепление в терминах снижения воздействия побуждений, как это делал Кларк Халл. Системы Торндайка и Халла были объясняющими; система Скиннера является строго описательной.
Скиннер и его последователи провели огромную исследовательскую работу по проблемам научения — таким, как роль наказания в приобретении навыков, воздействие различных систем подкрепления, мера угасания оперантного обусловливания, наличие вторичного подкрепления и т. д.
Кроме крыс они работали и с другими подопытными животными, и с людьми, используя в качестве основного подхода тот же самый принцип <скиннеровского ящика>. Если в качестве подопытных животных использовались голуби, то они должны были клюнуть в определенную точку или пятно; подкреплением являлась пища. Оперантное поведение людей включало такие аспекты, как решение задач, подкрепленное похвалой или осознанием того, что был дан правильный ответ.
Скиннер сообщал, что в качестве подкрепления для своей трехлетней дочери он использовал поглаживание по спине. Однако этот эксперимент обернулся неожиданным образом. Однажды он укладывал девочку спать, гладил ее по спинке и вдруг решил проверить, насколько это является поощряющим подкреплением. «Я подождал, — написал Скиннер, — чтобы она подняла ногу, и тогда погладил ее. Почти сразу же она снова подняла ногу, и я снова погладил ее. Она засмеялась. «Ты над чем смеешься?» — спросил я, и она ответила: «Стоит мне поднять ногу, как ты начинаешь меня гладить!»» (Skinner. 1987. P. 179).
Схема подкрепления
Уже первые исследования в <скиннеровском ящике> с нажатием рычага продемонстрировали значение подкрепления для оперантного поведения. В этой ситуации поведение крысы при каждом нажатии на рычаг получало подкрепление. То есть всякий раз, выполнив правильное действие, крыса получала пищу. Скиннер отмечал, что хотя в реальной жизни подкрепление далеко не всегда бывает последовательным или непрерывным, тем не менее, научение все — таки происходит и поведение сохраняется, даже если подкрепление было случайным или редким.
Не всегда, отправляясь кататься на коньках или на лыжах, мы попадаем на хороший лед или снег… Не всегда, приходя в ресторан, мы получаем хорошую пишу. потому что повара непредсказуемы. Звоня друзьям по телефону. мы не всегда получаем ответ, потому что друзья могут отсутствовать. …Подкрепляющие характеристики деятельности и обучения почти всегда являются прерывистыми. так как просто не имеет смысла контролировать подкреплением каждую реакцию. (Skinner. 1953. P. 99.)
Даже если вы проводите исследования постоянно, вы не при каждом эксперименте получаете реакцию А. На работе вас не каждый день хвалят и не каждый день повышают заработную плату. Каким образом на поведении сказывается такое непостоянное подкрепление? Является ли та или иной режим подкрепления[94] лучшим, чем остальные, с точки зрения ее воздействия на поведение? Скиннер и его коллеги посвятили годы исследованию этих вопросов (Ferster & Skinner 1857; Skinner.1969).
Потребность в этих исследованиях возникла не из — за чисто научного любопытства, но на основе практической целесообразности — что, кстати, иллюстрирует тот факт, что наука нередко существенно отличается от той идеализированной модели, которая представляется в некоторых учебниках. Как — то раз в субботу вечером Скиннер обнаружил, что у него почти закончился запас корма. В то время (тридцатые годы) еще нельзя было купить корм у специальных компаний по снабжению исследовательских лабораторий; экспериментатор должен был делать шарики вручную, что являлось достаточно длительным и трудоемким процессом.
Вместо того, чтобы потратить свои выходные на изготовление кормовых шариков, Скиннер задал себе вопрос: что произойдет, если он будет давать подкрепление своим крысам один раз в минуту, независимо от того, какое будет количество ответных реакций? При таком подходе ему потребуется намного меньше корма, и на выходные дни должно хватить. Скиннер решил провести длительную серию экспериментов, чтобы проверить различные варианты системы подкреплений.
В одном таком исследовании Скиннер сравнил частоту реакции у животных, которые получали подкрепление при каждой реакции, с частотой реакций тех животных, которые получали подкрепление только по истечении некоторого интервала времени. Последнее условие получило название схемы подкрепления с фиксированным интервалом. Подкрепление могло выдаваться, например, один раз в минуту или каждые четыре минуты. Важным моментом в данном случае является то, что подопытное животное получало подкрепление только по истечении определенного отрезка времени. (Например, работа, когда деньги выплачиваются раз в неделю или раз в месяц, представляет собой схему подкрепления с фиксированным интервалом; работники получают заработную плату не за количество произведенной продукции — то есть не за количество обусловленных реакций — а за количество прошедших дней недели.) Исследование Скиннера показало, что чем короче интервал между подкреплениями, тем чаще животное проявляет обусловленную реакцию. И наоборот, по мере того, как увеличивается интервал между подкреплениями, частота реакции снижается.
Частота подкрепления также оказывает влияние на угасание условной реакции. Проявление условной реакции угасает с большей скоростью, если имело место непрерывное подкрепление, которое затем резко было прекращено, чем в том случае, когда подкрепление выдавалось с перерывами. Некоторые голуби демонстрировали до десяти тысяч реакций без подкрепления, если исходно у них был сформирован условный рефлекс па основе периодичного, прерывистого подкрепления.
Скиннер исследовал также схему подкрепления с фиксированной частотой. В этом случае подкрепление выдается не по истечении определенного отрезка времени, а после выполнения определенного количества условных реакций. Само поведение животного определяет, насколько часто будет выдаваться подкрепление. Например, требуется совершить десять или двадцать обусловленных ответных реакций, чтобы получить новое подкрепление. Животные, получающие поощрение по схеме с фиксированной частотой, реагируют намного интенсивнее, чем те, которые получают подкрепление по схеме с фиксированным интервалом. Ведь очевидно, что высокая частота реагирования при схеме с фиксированным интервалом не приводит к получению дополнительного подкрепления; животное может нажать на рычаг пять раз или пятьдесят, но подкрепление появится только тогда, когда истечет заданный отрезок времени.