動物心理学年報
Online ISSN : 1883-6283
Print ISSN : 0003-5130
ISSN-L : 0003-5130
ラットにおける報酬交替反応の確率的強化
平岡 恭一
著者情報
ジャーナル フリー

1978 年 27 巻 2 号 p. 105-109

詳細
抄録

T迷路において, ラットが単純反応交替課題を学習できることが示されている (4, 6)。たとえばPETRINOVICH and BOLLES (4) の実験は, 直前試行における反応位置と逆の位置に対する反応 (以下 “反応交替反応” と略す) を強化したものである。またこれとは別に, 訂正法によって必ず強化を与え, 直前試行で強化が得られた位置と逆の位置に対する反応 (以下 “報酬交替反応”) を強化する手続が考えられる。WITTE (7) はこの報酬交替反応を確率的に強化した。すなわち, ラットに対し, 直前の強化位置と同じ位置に報酬がおかれる確率が.10, 逆の位置におかれる確率が.90であるような強化系列が最大400試行与えられた。その結果, 試行間間隔 (ITI) 8秒条件においては, 報酬交替反応の比率が.80を越えていた。ラットがこのような強化スケジュールを学習できることを一般的に示すためには, さらにさまざまな強化確率を与える必要があると思われる。本実験では, 報酬交替反応の強化確率を.80として, ラットの選択行動を検討する。
以上のような強化スケジュールは, 直前試行の報酬位置を手がかりとした一種の確率学習課題と考えることができる。通常の確率学習事態においては, 従来, ラットは十分訓練すれば, 強化確率の高い方の選択肢に一貫して反応するいわゆるマキシマイジングの傾向を示すといわれている (1, 3) 。本実験ではさらに, 上のスケジュールで十分多くの試行を与えた場合の行動についても調べる。

著者関連情報
© 日本動物心理学会
前の記事 次の記事
feedback
Top